»ChatGPT« wird offenbar immer denkfauler

  • Statt Antworten auf Fragen werden Usern immer häufiger Handlungsanleitungen ausgegeben

San Francisco, PTE, 11. Dezember 2023

Der populäre #KI #Chatbot »ChatGPT« von »OpenAI« in der aktuellen Bezahlversion »GPT4« wird immer denkfauler. Statt #Antworten auf gestellte #Fragen zu liefern, werden Nutzer immer häufiger zur Selbstarbeit aufgefordert. Woran es liegt, dass immer öfter unbefriedigende Anleitungen ausgegeben werden, ist den Entwicklern bislang unklar. Das Verhalten sei in jedem Falle jedoch nicht intendiert, heißt es von »#OpenAI« in einem offiziellen X Post.

Spekulationen über Spekulationen

Der Eindruck, dass »ChatGPT« offensichtlich immer denkfauler zu werden scheint, beruht seit Wochen auf einer übereinstimmenden Feststellung etlicher Nutzer – nicht zuletzt in Berichten im Forum von »OpenAI«, auf »Reddit« oder auch auf #X. Betroffen sollen Anfragen zu zahlreichen wiederkehrenden Abläufen sein. Aber auch die Zusammenfassung großer Datenmengen oder Texte wird nicht selten von dem #Algorithmus einfach abrupt beendet.

Auch weil »OpenAI« selbst nicht weiß, woran das liegt, schießen die Spekulationen darüber ins Kraut. User mutmaßen Limitierungen, die »OpenAI« angeblich umgesetzt habe, um eine Ãœberlastung zu verhindern. Oder es wird darüber spekuliert, dass die Kosten für den Betrieb aus dem #Ruder laufen und man daher entsprechend Rechenleistung begrenze. Andere vermuten wiederum, dass es technische Gründe für die #Veränderungen gibt.