US-Wahl, Europawahl, Landtags- und Kommunalwahlen in mehreren deutschen Bundesländern: In diesem Jahr stehen gleich mehrere richtungsweisende demokratische Entscheidungen an. Werden sie durch gezielte Desinformationskampagnen beeinflusst, vielleicht sogar unterstützt durch künstliche Intelligenz? Versucht wird es auf jeden Fall. Vergangenen Donnerstag erklärte das KI-Unternehmen OpenAI, mehrere Desinformationskampagnen staatlicher Akteure aufgedeckt zu haben. Diese hätten ChatGPT genutzt, um Kommentare und Artikel zu generieren, die anschließend verwendet worden seien, um in verschiedenen Ländern die öffentliche Meinung zu manipulieren.
Es ist nicht die einzige Nachricht dieser Art. Ein paar Beispiele:
Auch der Konzern Meta hat auf Instagram und Facebook im vergangenen Quartal sechs Desinformationskampagnen identifiziert, die unter anderem mutmaßlich aus China und Israel stammten. Vergangene Woche wurde in den USA ein Mann zu einer Strafzahlung von sechs Millionen US-Dollar verurteilt, der im Januar mithilfe einer KI die Stimme von Joe Biden gefälscht und diese für Anrufe verwendet hatte, in denen Wähler und Wählerinnen der Demokratischen Partei von der Wahlteilnahme abgeraten wurde. Und eine aktuelle Untersuchung von Google in Zusammenarbeit mit mehreren Fact-Checking-Organisationen fand heraus, dass die Zahl KI-generierter Bilder und Videos im Kontext von Desinformation seit 2023 stark angestiegen ist. "Generative KI-Bilder machen mittlerweile einen beträchtlichen Anteil aller mit Fehlinformationen verbundenen Bilder aus", schreiben die Forschenden.
Was tut die Bundesregierung, um die Wahlen zu schützen? Das lässt sich relativ kurz beantworten: Sie sieht vor allem die Zivilgesellschaft, also die Bürgerinnen und Bürger, in der Pflicht, entsprechende Inhalte zu erkennen. Das jedenfalls geht aus einer Antwort auf eine schriftliche Frage* der Bundestagsabgeordneten Anke Domscheit-Berg (Gruppe Die Linke) hervor, die ZEIT ONLINE vorliegt.
Domscheit-Berg hat die Bundesregierung gefragt, welche "konkreten Initiativen oder gesetzgeberischen Handlungsmaßnahmen" sie ergreife, "um die Bedrohung der Demokratie durch Desinformationen, insbesondere mittels KI-Anwendungen, zum Beispiel im Umfeld von Wahlen zu adressieren". Zusätzlich ging es um die Frage, ob und wie in diesem Kontext unabhängige Fact-Checking-Organisationen und Medien unterstützt würden.
Schutz "von innen"
Aus Sicht von Domscheit-Berg zeigt die Antwort der Bundesregierung, "dass sie die Gefahren offenbar immer noch nicht ernst genug nimmt", sagt sie ZEIT ONLINE. "Ein paar Aufklärungsmaterialien auf den Seiten der Bundesregierung zum Download bereitzustellen oder sich auf europäische Regelungen zu verlassen und ein neues Strategiepapier zu schreiben und ansonsten allgemein und unkonkret zu bleiben, reicht jedenfalls nicht aus."
Bereits im vergangenen Jahr hat eine ihrer Anfragen gezeigt, dass die Bundesregierung auf Entwicklungen im Bereich der künstlichen Intelligenz eher passiv und abwartend reagiert, damals ging es vor allem um Fragen der Regulierung. Nun bestätigt sich der Eindruck in der Debatte um KI und Wahlmanipulation.
Die Bundesregierung antwortet, dass man angesichts "hybrider Bedrohungen" vor allem auf "Prävention, die Sensibilisierung der Öffentlichkeit und die Stärkung der gesellschaftlichen Resilienz" setze. Sie verweist dabei auf Infomaterialien, die online zu finden sind, konkret auf einen "One Pager", in dem es um den Schutz der Europawahl geht. In dem kurzen Infoschreiben wird in drei Absätzen empfohlen, Informationen kritisch zu hinterfragen und Faktenchecks zu nutzen, ohne zu benennen, wo konkret diese zu finden sind. Mehr Material gebe es zudem auf der Website des Bundesinnenministeriums.
Des Weiteren verweist die Bundesregierung in der Antwort auf die Frage auf die in der vergangenen Woche beschlossene Strategie Gemeinsam für Demokratie und gegen Extremismus. Auch diese zielt vorrangig darauf ab, die Demokratie von innen heraus zu stärken, sei es durch politische Bildung oder die Förderung von demokratischem Engagement.
Dass Aufklärung und Resilienz wichtig sind, sagt auch Domscheit-Berg. Manipulierte Artikel, Fotos, Videos oder Kommentare in sozialen Medien sind schließlich nur dann wirksam, wenn sie möglichst weit verbreitet werden. Präventive Maßnahmen könnten dabei helfen, dass Menschen Falschinformationen schon bei der ersten Begegnung als solche erkennen und gar nicht erst verbreiten. Gleichzeitig sei Intervention erforderlich, wenn Desinformationen sich zum Beispiel in sozialen Netzen verbreiteten.