Schrage bevorzugt stattdessen die zweite Variante. Nutzer sollen seiner Ansicht nach schlicht anders mit den Inhalten in ihrem Newsfeed umgehen. "Unser Geschäft ist es, den Menschen die Möglichkeit zum Austausch zu geben. Dazu gehört, ihnen zu ermöglichen, Inhalte bedacht und verantwortungsbewusst zu teilen und zu konsumieren. Ich denke, wir brauchen ein Programm namens 'Denk nach, bevor du etwas teilst', damit die Leute dummes Zeug nicht weiter verbreiten."

Theoretisch passen die Tests mit den Mini-Umfragen unter einzelnen Inhalten dazu. Mit gut sichtbaren Hinweisen wie "500 Menschen schätzen die Überschrift dieses Artikels als vollständig irreführend ein" könnte Facebook die Verantwortung für die weitere Verbreitung komplett auf seine Nutzer abwälzen.

Praktisch ist Schrages Vision von vorne bis hinten ungeeignet. Das beginnt schon bei der Formulierung der eigenen Mission: Facebooks Geschäft ist mitnichten, Menschen das Teilen von Botschaften zu ermöglichen. Facebooks Geschäft ist es, Werbeplätze zu verkaufen. Deshalb profitiert es von jedem viralen Inhalt, egal, ob er wahr oder frei erfunden ist.

Eine Einladung für Trolle

Außerdem muss man schon in einem rosaroten Paralleluniversum leben, wenn man nicht anerkennt, dass Facebook ein Abbild der menschlichen Gesellschaft mit all ihren hässlichen Seiten ist. Die Umfrage zu irreführenden Überschriften? Wird garantiert von Trollen missbraucht, um seriöse Inhalte zu markieren. Zu Recht markierte, weil haarsträubend falsche Inhalte? Werden garantiert trotzdem geteilt. Aus Spaß oder als Beleg für irgendwelche Verschwörungen oder weil der Hinweis gar nicht so groß sein kann, dass er eine knallige Überschrift in den Hintergrund rückt.

So typisch der Ansatz des Abwälzens für Facebook in der Vergangenheit war, dieses Mal wird das Unternehmen damit nicht durchkommen – und ahnt das wohl auch. Bundeskanzlerin Merkel sprach schon – wenn auch unbestimmt – über eine notfalls nötige Regulierung. Bundesjustizminister Heiko Maas droht damit schon länger, bisher vor allem wegen Facebooks mäßigen Fortschritten im Kampf gegen Hassrede.

So befindet sich Facebook in einer Catch-22-Situation: Alle bisher diskutierten Lösungen sind schlecht. Greift das Unternehmen stärker redaktionell in die Newsfeeds ein, wird es viele Nutzer verärgern, sobald es aus deren Sicht mal falsch entscheidet. Freiwillige Zensur und privatisierte Rechtsdurchsetzung sind schwere Vorwürfe, die auch bei Anzeigenkunden nicht gut ankommen.

Überlässt Facebook aber den Nutzern die alleinige Verantwortung für die Verbreitung von Fake News, wird es praktisch keinen Effekt haben.

Dann wird die Bundesregierung versuchen, gesetzlich einzugreifen und letztlich doch irgendeine Form der redaktionellen Bewertung von Facebook-Inhalten zu erzwingen. Inklusive staatlicher Vorgaben, was Fake News sind, und Strafzahlungen, wenn das Löschen nicht richtig funktioniert. Wahrscheinlich ginge das nur auf EU-Ebene und wäre dementsprechend ein langwieriger politischer Prozess. Aber eben einer, in dem Facebook immer als Negativbeispiel herhalten müsste. Und im schlimmsten Fall würden andere Länder mit ganz anderen Vorstellungen davon, was Fake News ausmachen, folgen. Siehe China.