Was heute mit dem Begriff Fake-News umschrieben wird, ist keine Erfindung der 21. Jahrhunderts. "Wenn die Leute kein Brot haben, dann sollen sie Kuchen essen" etwa hat Königin Marie Antoinette nie gesagt. Aber für die französische Bevölkerung stand in den 1780ern ohnehin fest, dass die Monarchenfamilie jeden Bezug zur Realität verloren hatte. Warum also nicht die Stimmung anheizen mit untergeschobenen Zitaten und falschen Sensationsmeldungen?

Mehr als 230 Jahre und einige mediale Revolutionen später hat sich das Problem potenziert. Hasstiraden, Halbwahrheiten, extremistische Propaganda fluten das Netz. Manche sehen schon Demokratie und öffentlichen Diskurs bedroht. Ein umstrittener Gesetzentwurf liegt, rechtzeitig zum Wahlkampf, auf dem Tisch. Sogar die großen amerikanischen Unternehmen – allen voran Facebook-Chef Mark Zuckerberg – gestehen mittlerweile ein, dass sie nicht mehr die neutralen Plattformen sind, die sie jahrelang zu sein behaupteten und dass Handlungsbedarf besteht.

Facebook sieht sich sogar gezwungen, 3.000 neue Mitarbeiter einzustellen, die von Nutzern wegen krasser Gewaltdarstellung bis hin zum live übertragenen Mord gemeldeten Videos zu prüfen. Von Hasskommentaren und Propaganda ist da noch gar nicht die Rede. Nur kann es nicht im Sinn eines börsennotierten Unternehmens sein, irgendwann mehr Menschen zu dafür zu bezahlen, den Müll seiner Nutzer wegzuräumen, als das Produkt weiterzuentwickeln. Also kommen eigentlich nur (teil-)automatisierte Filterverfahren infrage. Das zumindest entspräche dem unternehmerischen Anspruch der Aktionäre und dem technischen Anspruch der Entwickler.

Experimentiert wird bereits: Facebook setzt neuerdings auf unterschiedliche Perspektiven im Newsfeed. Außerdem kündigte das Unternehmen an, mit "neuen Technologien" und künstlicher Intelligenz (KI) nach Bildern und Videos zu suchen, auf denen Kapitalverbrechen zu sehen sind, um deren Verbreitung zu verhindern. Google ändert derweil seine Suchalgorithmen und lässt in einem Technik-Inkubator namens Jigsaw an Filtertechnologien forschen. Eine erste Anwendung, die beleidigende oder mobbende Nutzerkommentare erkennen soll, ist bereits auf dem Markt.

Aber werden KI-Filter komplexe gesellschaftliche Phänomene wie Hass und Propaganda wirklich effektiv bekämpfen können? Wie weit ist die Forschung überhaupt? Woran scheitert die Technik noch? Wo liegen die rechtlichen, wo die computerlinguistischen Schwierigkeiten?

Bitte wählen Sie eine Option.
Danke, und willkommen bei „Deutschland spricht“
Viele unserer Leser sind in dieser Frage anderer Meinung als Sie. Wir würden Ihnen gerne noch vier weitere Fragen stellen:
Bitte wählen Sie eine Option.
Bitte wählen Sie eine Option.
Bitte wählen Sie eine Option.
Bitte wählen Sie eine Option.
Und jetzt?
Sie haben uns Ihre Antworten auf wichtige gesellschaftliche Fragen genannt. Viele Teilnehmer sind aber bei genau diesen Themen ganz anderer Meinung als Sie. Würden Sie gerne wissen, warum? Dann treffen Sie sich doch einfach!
Lernen Sie am Sonntag, den 18. Juni zwischen 15 und 18 Uhr eine Leserin oder einen Leser von ZEIT ONLINE aus Ihrer Region kennen, der oder die anders denkt als Sie. Machen Sie mit bei „Deutschland spricht!“. Worum geht es? Wir haben nicht zuletzt von den USA gelernt, dass demokratische Gesellschaften sich spalten können. Im schlimmsten Fall verlernen sie, miteinander zu reden. Dann versteht die eine Seite die andere nicht mehr, und beide Seiten tendieren dazu, immer bedingungsloser an Ihren Positionen festzuhalten und immun gegen Argumente zu werden. Wir wollen an einem Tag in diesem Jahr politische Gegner wieder miteinander ins Gespräch bringen. Ein offener Austausch der Argumente in einem echten Zwiegespräch. Von Angesicht zu Angesicht, überall in Deutschland. Wenn Sie dabei sein wollen, können sie sich jetzt anmelden. Wir werden wir für Sie dann in den kommenden Wochen einen Gesprächspartner in Ihrer Region suchen, mit dem Sie sich treffen können.
+ alles anzeigen
Damit wir eine Gesprächspartnerin oder einen Gesprächspartner für Sie finden können, beantworten Sie uns bitte einige Fragen.
Bitte geben Sie Ihren Namen ein.
Bitte wählen Sie eine Option.
Bitte geben Sie eine gültige Postleitzahl ein.
Fast geschafft ...
Ihre Anmeldung für „Deutschland spricht“ ist fast fertig. Damit ihr Gesprächspartner einen ersten Eindruck von Ihnen machen kann, erzählen Sie doch noch ein wenig von sich:
Bitte füllen Sie das Feld aus.
Bitte füllen Sie das Feld aus.
Bitte füllen Sie das Feld aus.
Bitte füllen Sie das Feld aus.
Bitte füllen Sie das Feld aus.
Bitte geben Sie eine gültige E-Mail-Adresse ein.
Bitte geben Sie eine gültige Handynummer ein.
Vielen Dank! Wir melden uns, sobald wir einen Gesprächspartner für Sie gefunden haben.

Was ist in der Rechtsprechung schon "offensichtlich"?

Das Problem fängt schon bei der Definition an. Die Begriffe Fake-News und Hatespeech werden vor allem in den USA verwendet, sind hierzulande aber ebenso schwammig wie juristisch unbrauchbar. Im Entwurf zum Netzwerkdurchsetzungsgesetz von Bundesjustizminister Heiko Maas (SPD) ist deshalb von "offensichtlich rechtswidrigen Inhalten" die Rede, die Betreiber sozialer Netzwerke innerhalb von 24 Stunden nach Eingang einer Beschwerde löschen sollen. Die Formulierung lässt Juristen die Haare zu Berge stehen.

"Offensichtliche Rechtswidrigkeit ist kontextabhängig und sehr schwer pauschal konkret festzulegen", sagt Professor Rolf Schwartmann, Leiter der Forschungsstelle für Medienrecht an der Technischen Hochschule Köln. Bei einem Begriff wie "Nazischlampe" sei die Sache etwa kompliziert. Vielleicht steht das Wort in einem satirischen Kontext, vielleicht ist es ein Zitat im Rahmen kritischer Berichterstattung.

Dass der Gesetzentwurf in diesem Zusammenhang eine ganze Reihe von Paragrafen auflistet, von Paragraf 86 (Verbreitung von Propagandamitteln verfassungswidriger Organisationen) bis Paragraf 269 (Fälschung beweiserheblicher Daten), macht die Sache nicht besser. "Diese Begriffe sind zur Auslegung für Strafrichter bestimmt und nicht für ein permanentes Laienstandgericht für Äußerungen im Netz," sagt Schwartmann.

Selbst wenn bei Facebook, Google und Twitter Legionen von Juristen am Werk wären: "In 24 Stunden ist das nicht machbar", sagt Schwartmann. Und weiter: "Die Mitarbeiter, die im Auftrag der Diensteanbieter ermitteln würden, welche Paragrafen bei welchem Beitrag möglicherweise greifen, sind keine Richter. Das ist rechtsstaatlich nicht sauber."