Für Facebook wird es hässlich

Wie falsch die Sache mit den Fake News auf Facebook läuft, zeigt das Beispiel von Renate Künast. Wie der Spiegel berichtete, brauchte die Grünen-Politikerin mehrere Tage, um das Netzwerk dazu zu bringen, ein angebliches, tatsächlich aber frei erfundenes Zitat von ihr zum Mord in Freiburg nicht weiter zu verbreiten.

Nichts brachte Facebook dazu, den Unsinn zügig aus dem Netz zu nehmen: Rechtschreibfehler im Nicht-Zitat, Künasts eigener Facebook-Post mit der Richtigstellung, Schützenhilfe aus der Chefredaktion der Süddeutschen Zeitung, die als angebliche Quelle im Nicht-Zitat angegeben wurde, der offizielle Meldeweg, Künasts direkter Draht zu Facebooks Lobbyisten in Deutschland, die Facebook-Seite Widerstand deutscher Patrioten als mutmaßlich erster Verbreiter – alles ziemlich gute Hinweise darauf, dass dieses einige Tausend Mal geteilte Zitat keines war.

Drei Tage brauchte Facebook, um es zu löschen. Künast hat Anzeige erstattet gegen die Macher von Widerstand deutscher Patrioten und gegen unbekannt, unter anderem wegen übler Nachrede. Aber der Schaden ist angerichtet: Das gefälschte Zitat wurde drei Tage lang von Rechten als Propagandamaterial benutzt, und das ist im Zeitalter von minütlich aktualisierten Medien und Newsfeeds eine Menge.

Die erste Antwort ist eine technische

Facebook ringt offenkundig mit sich selbst um die richtige Strategie im Kampf gegen Fake News. Gegen Falschmeldungen also, die produziert und verbreitet werden, um Hass zu säen, die Öffentlichkeit in die Irre zu führen, Propaganda zu betreiben oder ohne jeden journalistischen Anspruch Werbeeinnahmen zu generieren.

Der erste Schritt, das zeichnet sich ab, wird ein technischer sein. Manche US-Nutzer sehen derzeit Facebook-Umfragen unter einzelnen Nachrichten in ihrem Newsfeed. Sie werden gefragt: "In welchem Ausmaß, denken Sie, ist die Überschrift zu diesem Link irreführend?" oder "In welchem Ausmaß, denken Sie, verschweigt die Überschrift zu diesem Link zentrale Aspekte der Story?" Die fünf Antwortmöglichkeiten reichen von gar nicht bis vollständig.

Offensichtlich testet das Unternehmen ein neues Meldesystem. Eines, das nicht so leicht zu übersehen ist wie das bisherige, das 2015 eingeführt wurde. Einerseits hieße das, Facebook hat nicht vor, Fake News alleine mithilfe seiner Algorithmen zu identifizieren und damit ohne jede öffentliche Kontrolle zum Herr über Wahrheit und Lüge zu werden. Stattdessen deuten die Befragungen darauf hin, dass Facebook das Melden vermeintlicher Fake News vereinfachen will. Genau das hatte CEO Mark Zuckerberg zuletzt in Aussicht gestellt. Wobei die endgültige Formulierung der Fragen auch anders lauten kann als in den jetzigen Tests.

Medienkonsum - Fakt oder Fiktion? Die Politik will verstärkt gegen Fake News vorgehen. Wie kann man selbst Wahrheit von Lüge unterscheiden? Der Medienexperte Curd Knüpfer gibt Tipps.

Was tun mit den gemeldeten Inhalten?

Unklar ist, was im zweiten und dritten Schritt mit den gemeldeten Inhalten passiert. Entweder landen die Ergebnisse der Umfragen intern bei Facebook und werden entsprechend überprüft, oder sie dienen zur öffentlichen Markierung, quasi als Warnung.

Es gibt Hinweise, die für Variante eins sprechen: Facebook hat 2015 dieses Patent für ein System beantragt, das Nutzerbeschwerden, Maschinenlernen und menschliche Moderatoren kombiniert. Eine künstliche Intelligenz (KI) soll demnach mit gemeldeten Inhalten trainiert werden, um eine Vorauswahl für die Moderatoren zu treffen, welche Inhalte fragwürdig und möglicherweise zu löschen sind. Die KI würde im besten Fall nebenbei lernen, auch ohne die Hilfe von Nutzern zu erkennen, ob eine Nachricht typische Merkmale von Fake News (oder Pornografie oder Hassbotschaften) hat, und sie direkt den Moderatoren vorlegen.

Letztlich müssten Facebooks entsprechend geschulte Angestellte (oder Dienstleister) entscheiden, welche Inhalte als Fake News einzustufen sind und gelöscht werden. Genau das will das Unternehmen aber eigentlich nicht. Die jüngsten Aussagen von Facebook-Manager Eliot Schrage auf einer Konferenz an der Harvard-Universität waren in dieser Hinsicht unmissverständlich: "Mir ist nicht klar, warum es angesichts von 1,8 Milliarden Nutzern und ihren vielen verschiedenen Sprachen klug sein soll, jetzt damit anzufangen, Redakteure einzustellen. Das ist einfach nicht das, was wir tun." – Abgesehen von einem Head of News Partnership, den Facebook gerade sucht.

Verantwortung auf Facebooks Nutzer abwälzen

Schrage bevorzugt stattdessen die zweite Variante. Nutzer sollen seiner Ansicht nach schlicht anders mit den Inhalten in ihrem Newsfeed umgehen. "Unser Geschäft ist es, den Menschen die Möglichkeit zum Austausch zu geben. Dazu gehört, ihnen zu ermöglichen, Inhalte bedacht und verantwortungsbewusst zu teilen und zu konsumieren. Ich denke, wir brauchen ein Programm namens 'Denk nach, bevor du etwas teilst', damit die Leute dummes Zeug nicht weiter verbreiten."

Theoretisch passen die Tests mit den Mini-Umfragen unter einzelnen Inhalten dazu. Mit gut sichtbaren Hinweisen wie "500 Menschen schätzen die Überschrift dieses Artikels als vollständig irreführend ein" könnte Facebook die Verantwortung für die weitere Verbreitung komplett auf seine Nutzer abwälzen.

Praktisch ist Schrages Vision von vorne bis hinten ungeeignet. Das beginnt schon bei der Formulierung der eigenen Mission: Facebooks Geschäft ist mitnichten, Menschen das Teilen von Botschaften zu ermöglichen. Facebooks Geschäft ist es, Werbeplätze zu verkaufen. Deshalb profitiert es von jedem viralen Inhalt, egal, ob er wahr oder frei erfunden ist.

Eine Einladung für Trolle

Außerdem muss man schon in einem rosaroten Paralleluniversum leben, wenn man nicht anerkennt, dass Facebook ein Abbild der menschlichen Gesellschaft mit all ihren hässlichen Seiten ist. Die Umfrage zu irreführenden Überschriften? Wird garantiert von Trollen missbraucht, um seriöse Inhalte zu markieren. Zu Recht markierte, weil haarsträubend falsche Inhalte? Werden garantiert trotzdem geteilt. Aus Spaß oder als Beleg für irgendwelche Verschwörungen oder weil der Hinweis gar nicht so groß sein kann, dass er eine knallige Überschrift in den Hintergrund rückt.

So typisch der Ansatz des Abwälzens für Facebook in der Vergangenheit war, dieses Mal wird das Unternehmen damit nicht durchkommen – und ahnt das wohl auch. Bundeskanzlerin Merkel sprach schon – wenn auch unbestimmt – über eine notfalls nötige Regulierung. Bundesjustizminister Heiko Maas droht damit schon länger, bisher vor allem wegen Facebooks mäßigen Fortschritten im Kampf gegen Hassrede.

So befindet sich Facebook in einer Catch-22-Situation: Alle bisher diskutierten Lösungen sind schlecht. Greift das Unternehmen stärker redaktionell in die Newsfeeds ein, wird es viele Nutzer verärgern, sobald es aus deren Sicht mal falsch entscheidet. Freiwillige Zensur und privatisierte Rechtsdurchsetzung sind schwere Vorwürfe, die auch bei Anzeigenkunden nicht gut ankommen.

Überlässt Facebook aber den Nutzern die alleinige Verantwortung für die Verbreitung von Fake News, wird es praktisch keinen Effekt haben.

Dann wird die Bundesregierung versuchen, gesetzlich einzugreifen und letztlich doch irgendeine Form der redaktionellen Bewertung von Facebook-Inhalten zu erzwingen. Inklusive staatlicher Vorgaben, was Fake News sind, und Strafzahlungen, wenn das Löschen nicht richtig funktioniert. Wahrscheinlich ginge das nur auf EU-Ebene und wäre dementsprechend ein langwieriger politischer Prozess. Aber eben einer, in dem Facebook immer als Negativbeispiel herhalten müsste. Und im schlimmsten Fall würden andere Länder mit ganz anderen Vorstellungen davon, was Fake News ausmachen, folgen. Siehe China.