Was heute mit dem Begriff Fake-News umschrieben wird, ist keine Erfindung der 21. Jahrhunderts. "Wenn die Leute kein Brot haben, dann sollen sie Kuchen essen" etwa hat Königin Marie Antoinette nie gesagt. Aber für die französische Bevölkerung stand in den 1780ern ohnehin fest, dass die Monarchenfamilie jeden Bezug zur Realität verloren hatte. Warum also nicht die Stimmung anheizen mit untergeschobenen Zitaten und falschen Sensationsmeldungen?

Mehr als 230 Jahre und einige mediale Revolutionen später hat sich das Problem potenziert. Hasstiraden, Halbwahrheiten, extremistische Propaganda fluten das Netz. Manche sehen schon Demokratie und öffentlichen Diskurs bedroht. Ein umstrittener Gesetzentwurf liegt, rechtzeitig zum Wahlkampf, auf dem Tisch. Sogar die großen amerikanischen Unternehmen – allen voran Facebook-Chef Mark Zuckerberg – gestehen mittlerweile ein, dass sie nicht mehr die neutralen Plattformen sind, die sie jahrelang zu sein behaupteten und dass Handlungsbedarf besteht.

Facebook sieht sich sogar gezwungen, 3.000 neue Mitarbeiter einzustellen, die von Nutzern wegen krasser Gewaltdarstellung bis hin zum live übertragenen Mord gemeldeten Videos zu prüfen. Von Hasskommentaren und Propaganda ist da noch gar nicht die Rede. Nur kann es nicht im Sinn eines börsennotierten Unternehmens sein, irgendwann mehr Menschen zu dafür zu bezahlen, den Müll seiner Nutzer wegzuräumen, als das Produkt weiterzuentwickeln. Also kommen eigentlich nur (teil-)automatisierte Filterverfahren infrage. Das zumindest entspräche dem unternehmerischen Anspruch der Aktionäre und dem technischen Anspruch der Entwickler.

Experimentiert wird bereits: Facebook setzt neuerdings auf unterschiedliche Perspektiven im Newsfeed. Außerdem kündigte das Unternehmen an, mit "neuen Technologien" und künstlicher Intelligenz (KI) nach Bildern und Videos zu suchen, auf denen Kapitalverbrechen zu sehen sind, um deren Verbreitung zu verhindern. Google ändert derweil seine Suchalgorithmen und lässt in einem Technik-Inkubator namens Jigsaw an Filtertechnologien forschen. Eine erste Anwendung, die beleidigende oder mobbende Nutzerkommentare erkennen soll, ist bereits auf dem Markt.

Aber werden KI-Filter komplexe gesellschaftliche Phänomene wie Hass und Propaganda wirklich effektiv bekämpfen können? Wie weit ist die Forschung überhaupt? Woran scheitert die Technik noch? Wo liegen die rechtlichen, wo die computerlinguistischen Schwierigkeiten?

Was ist in der Rechtsprechung schon "offensichtlich"?

Das Problem fängt schon bei der Definition an. Die Begriffe Fake-News und Hatespeech werden vor allem in den USA verwendet, sind hierzulande aber ebenso schwammig wie juristisch unbrauchbar. Im Entwurf zum Netzwerkdurchsetzungsgesetz von Bundesjustizminister Heiko Maas (SPD) ist deshalb von "offensichtlich rechtswidrigen Inhalten" die Rede, die Betreiber sozialer Netzwerke innerhalb von 24 Stunden nach Eingang einer Beschwerde löschen sollen. Die Formulierung lässt Juristen die Haare zu Berge stehen.

"Offensichtliche Rechtswidrigkeit ist kontextabhängig und sehr schwer pauschal konkret festzulegen", sagt Professor Rolf Schwartmann, Leiter der Forschungsstelle für Medienrecht an der Technischen Hochschule Köln. Bei einem Begriff wie "Nazischlampe" sei die Sache etwa kompliziert. Vielleicht steht das Wort in einem satirischen Kontext, vielleicht ist es ein Zitat im Rahmen kritischer Berichterstattung.

Dass der Gesetzentwurf in diesem Zusammenhang eine ganze Reihe von Paragrafen auflistet, von Paragraf 86 (Verbreitung von Propagandamitteln verfassungswidriger Organisationen) bis Paragraf 269 (Fälschung beweiserheblicher Daten), macht die Sache nicht besser. "Diese Begriffe sind zur Auslegung für Strafrichter bestimmt und nicht für ein permanentes Laienstandgericht für Äußerungen im Netz," sagt Schwartmann.

Selbst wenn bei Facebook, Google und Twitter Legionen von Juristen am Werk wären: "In 24 Stunden ist das nicht machbar", sagt Schwartmann. Und weiter: "Die Mitarbeiter, die im Auftrag der Diensteanbieter ermitteln würden, welche Paragrafen bei welchem Beitrag möglicherweise greifen, sind keine Richter. Das ist rechtsstaatlich nicht sauber."