Facebook wird Fake News verbannen, versprach CEO Mark Zuckerberg am Wochenende, während er einen Delfin verspeiste. Das berichtet aboveaverage.com und es ist natürlich frei erfunden. Jedenfalls die Sache mit dem Delfin. Aber Zuckerberg hat sich tatsächlich noch einmal ausführlich zum Thema Fake News geäußert und mehr oder weniger konkrete Maßnahmen in Aussicht gestellt, um die Verbreitung von Falschmeldungen wie vor der US-Wahl auf Facebook zu verhindern.

Noch Anfang der Woche hatte das Unternehmen angekündigt, lediglich das Geschäftsmodell Fake News zu zerstören. Wer falsche Nachrichten verbreite, solle an Werbeeinnahmen nicht beteiligt werden. Mögliche Vorgehensweisen, um auch das Propagandamodell Fake News zu bekämpfen, kamen nur von externer Seite. Facebook will einfach möglichst selten redaktionell in die Newsfeeds seiner Nutzer eingreifen, weil es nicht als Medienunternehmen angesehen und letztlich auch entsprechend reguliert werden will.

Nun hat Zuckerberg aber doch eingesehen, dass Facebook "mehr tun muss", wie er schreibt. Doch "diese Probleme sind komplex, sowohl technisch als auch philosophisch": Es bestehe immer die Gefahr, Inhalte irrtümlich als gefälscht ein- und entsprechend herabzustufen. Wer sich an Facebooks Umgang zum Beispiel mit dem Vietnamkriegsfoto eines vor einem Napalmangriff fliehenden Mädchens erinnert, weiß, was Zuckerberg meint.

Algorithmen sollen gefälschte Nachrichten erkennen

Jedenfalls wolle Facebook nicht zum "Schiedsrichter der Wahrheit" werden, sondern sich weiterhin darauf verlassen, dass die Nutzer und vertrauenswürdige Dritte (wie zum Beispiel bestimmte Faktencheck-Seiten) gefälschte Nachrichten melden. Künftig solle das für sie "viel einfacher" werden.

Allerdings verspricht Zuckerberg auch, Facebooks technische Fähigkeiten zu verbessern, Fake News selbst zu erkennen, also noch bevor Nutzer sie melden. Einzelheiten nennt er nicht. Der Softwareentwickler, Investor und Verleger Tim O'Reilly hatte aber kürzlich skizziert, wie eine technische Lösung aussehen könnte: Facebooks Algorithmen müssten darauf trainiert werden, die Muster und Metadaten von Falschmeldungen zu erkennen – so ähnlich, wie Googles Suchmaschinenalgorithmus gelernt habe, vertrauenswürdige, wertvolle Quellen von anderen zu unterscheiden und entsprechend höher in den Suchergebnissen anzuzeigen. Nicht mehr der Inhalt einzelner Meldungen solle entscheidend sein, sondern die Reputation der Quelle.

Zudem testet Facebook Warnhinweise für Inhalte im Newsfeed, die jemand als falsch gemeldet hat. Sie sollen eingeblendet werden, wenn jemand die Inhalte anschaut oder teilt.

Den Einsatz menschlicher Redakteure zur Bewertung von Inhalten verspricht Zuckerberg nicht, wohl aber eine verstärkte Zusammenarbeit mit Faktencheck-Organisationen und Journalisten, "um von ihnen zu lernen".

Facebook hatte mal ein internes Redaktionsteam, das die sogenannten Trending Topics der US-Version von Facebook kuratierte. Als die Existenz des Teams bekannt wurde, behaupteten erst ein ehemaliger Mitarbeiter und dann mehrere konservative Medien, die Facebook-Redakteure würden politisch nicht neutral arbeiten. Einige Wochen später wurden sie komplett entlassen, seitdem übernimmt ein Algorithmus ihre Aufgabe.