Fake News sind zum Politikum geworden. Vor allem auf Facebook werden verfälschte, frei erfundene oder hetzerische Meldungen gezielt in Umlauf gebracht, um politische Akteure zu diskreditieren, die öffentliche Meinung zu manipulieren und Stimmung zum Beispiel gegen Flüchtlinge zu machen. Das Unternehmen hat das Problem mittlerweile zumindest als solches anerkannt, CEO Mark Zuckerberg kündigte im November einige Gegenmaßnahmen an. Nun legt Facebook-Manager Adam Mosseri, zuständig für den Bereich Newsfeed, nach.

In einem Blogpost beschreibt er vier Ansätze, mit denen Facebook künftig gegen absichtliche Falschmeldungen vorgehen will. Doch schon in den ersten Sätzen stellt er klar, dass Facebook nicht vorhat, redaktionelle Verantwortung zu übernehmen: "Wir glauben daran, Menschen eine Stimme zu geben, und können nicht selbst Schiedsrichter der Wahrheit werden", schreibt er. "Wir konzentrieren uns auf die schlimmsten der Schlimmen, auf die klaren Fälschungen, die von Spammern verbreitet werden, um daran zu verdienen, und darauf, unsere Community und externe Organisationen einzubinden."

Die erste Maßnahme besteht aus Tests, wie das Melden von Falschmeldungen an Facebook vereinfacht werden könnte. Bisher muss man dafür oben rechts auf einen Inhalt im Newsfeed klicken und "Beitrag melden" auswählen, anschließend stehen drei Begründungen zur Auswahl: "Es ist nervig oder uninteressant", "Es sollte meiner Meinung nach nicht auf Facebook sein" und "Es handelt sich um Spam". Von Falschmeldungen ist nicht die Rede. Testweise soll nun eine entsprechende Auswahlmöglichkeit hinzukommen.

Fact-Checker sollen Beiträge prüfen

Das vereinfachte Melden allein wäre aber natürlich zu wenig. Irgendetwas muss Facebook mit den Meldungen ja machen. Was, geht aus der zweiten Ankündigung von Mosseri hervor: Inhalte können für alle Nutzer sichtbar als "umstritten" gekennzeichnet werden. "Wir nutzen die Meldungen aus der Community sowie andere Signale, um Beiträge an Fact-Checking-Organisationen weiterzuleiten", schreibt der Facebook-Manager. Unklar ist, was er mit "anderen Signalen" meint. Die Organisationen hingegen sind bekannt. Sie gehören zum International Fact-Checking Network (IFCN) des Poynter-Instituts, darunter Snopes, Politifact, Factcheck.org und ABC News.

Stufen die einen Beitrag als Fake ein, wird er auf Facebook als "umstritten" (engl. disputed) markiert und mit einem Link auf die Begründung der Fact-Checker versehen. Derart markierte Beiträge werden zudem im Newsfeed herabgestuft, und sie können auch nicht mehr gegen Bezahlung beworben werden.

So sollen als "umstritten" markierte Facebook-Inhalte aussehen. © Facebook

Sie bleiben allerdings online und können weiterhin geteilt werden. Mosseri schreibt: "Wir glauben, mehr Kontext kann Menschen helfen, selbst zu entscheiden, welchen Inhalten sie trauen und welche sie teilen."

Die dritte Maßnahme betrifft die Gewichtung von Beiträgen im Newsfeed. Facebook hat offenbar festgestellt, dass bestimmte Nutzungsstatistiken ein Zeichen für Fakes oder Irreführung sein können. Die will es testweise in seinen Ranking-Algorithmus integrieren. Mosseri nennt allerdings ein Beispiel, das mehr Fragen aufwirft, als es beantwortet: "Wenn das Lesen eines Artikels dazu führt, dass die Wahrscheinlichkeit, dass Menschen ihn teilen, signifikant sinkt, könnte das ein Zeichen dafür sein, dass er in irgendeiner Hinsicht irreführend ist."

Eigentlich ist der Effekt ja gewünscht: Fake News, die nicht geteilt werden, richten weniger Schaden an, als solche, die viral werden. ZEIT ONLINE hat um Klarstellung gebeten und wird die Antwort gegebenenfalls nachreichen.