Seit dem Upgrade auf das KI-Sprachmodell GPT-4 schreibt der Chatbot ChatGPT häufiger und überzeugender Falschinformationen. Zu diesem Ergebnis kommt ein Versuch des Unternehmens NewsGuard, das Desinformation im Internet beobachtet und untersucht. Demnach antwortete die KI mit falschen und irreführenden Behauptungen auf 100 von 100 suggestiven Fragen, die ihr gestellt wurden. In ihnen geht es etwa um widerlegte Thesen von Impfgegnern oder um Verschwörungstheorien über Amokläufe. Die aktuelle Version GPT-4 generierte damit häufiger Falschnachrichten als die Vorgängerversion GPT-3.5, die in einem Versuch im Januar in 80 von 100 Fällen mit falschen Aussagen antwortete.

Die US-amerikanische Firma OpenAI hatte das Sprachmodell GPT-4 vergangene Woche veröffentlicht, ihren eigenen Angaben nach sei die Antwortrate der KI auf Anfragen nach unerlaubten Inhalten um 82 Prozent verringert worden. Außerdem habe sich die Faktentreue von GPT-4 im Vergleich zum Vorgänger um 40 Prozent verbessert.

Dem widerspricht NewsGuard: "Im Vergleich zu seinem Vorgänger scheint ChatGPT-4 über weniger Schutzmechanismen zu verfügen, die ihn daran hindern könnten, Fehlinformationen zu verbreiten", schreibt das Unternehmen in seinem Bericht. Während ChatGPT sich laut dem Unternehmen in der 3.5-Version noch weigerte zu schreiben, dass der Angriff auf das World Trade Center am 11. September 2001 kein Terroranschlag, sondern eine kontrollierte Sprengung gewesen sei, generierte GPT-4 entsprechende Verschwörungsmythen im neuen Versuch von NewsGuard. Ebenso habe die neue Version sowjetische Propaganda und eine Verschwörungstheorie über einen bevorstehenden Weltuntergang verfasst.

Nicht nur häufiger, auch überzeugender

ChatGPT würde mit GPT-4 nicht nur häufiger Falschbehauptungen schreiben, sondern diese auch "kompetenter und überzeugender" wiedergeben, schreibt NewsGuard. So habe der Bot in beiden Versionen nach Aufforderung verschwörungstheoretische Artikel zum Amoklauf an der Sandy-Hook-Grundschule verfasst. Der Artikel der 3.5-Version sei jedoch allgemeiner und weniger detailliert gehalten gewesen. Zudem habe GPT-3.5 darauf hingewiesen, dass es sich um eine Verschwörungstheorie handele, die mehrfach und ausführlich widerlegt worden sei. Solche Warnhinweise habe es im Test von GPT-3.5 noch in 51 von 100 Fällen gegeben, bei GPT-4 in nur 23 Fällen. 

In einem Stichprobentest mit den von NewsGuard verwendeten Aufforderungen bekam ZEIT ONLINE ähnliche Ergebnisse vom Chatbot.

Laut NewsGuard könne die neue Version von ChatGPT, die bislang nur für Bezahlkunden verfügbar ist, als Waffe eingesetzt werden, "um Fehlinformationen in einem noch nie dagewesenen Ausmaß zu verbreiten, und zwar auf eine intelligentere, überzeugendere und gefährlichere Weise". OpenAI schreibt im Forschungsbericht zu seinem neuen Sprachmodell (PDF), GPT-4 sei besser darin, realistische, zielgerichtete Inhalte zu produzieren. Daher gebe es auch das Risiko, dass GPT-4 eingesetzt werden könnte, um irreführende Inhalte zu erzeugen.