Erst im Mai gab es wieder so einen Fall. Im Netz kursiert ein Video von Nancy Pelosi, der Sprecherin des US-Repräsentantenhauses. Der Clip zeigt sie im blauen Kostüm auf einer Bühne, sie spricht über den amerikanischen Präsidenten Donald Trump. Bei diesem Präsidenten wisse man nie so genau, sagt sie. Die Worte scheinen bemüht – als sei Pelosi betrunken.

Das Video verbreitete sich schnell, auf Facebook wurde es unter anderem von der konservativen Seite Politics WatchDog geteilt. Auch auf YouTube gibt es Versionen davon. Doch das Video ist manipuliert: Die Sequenzen wurden offenbar absichtlich so verlangsamt, dass die Sprache der Demokratin undeutlich wirkt, das zeigt der Vergleich mit dem Originalclip. Die Urheber wollten Pelosi offensichtlich politisch beschädigen.

Facebook wurde auf die Verfälschung aufmerksam gemacht. Und tat: nichts. Es gebe keine Richtlinie, die besage, dass eine auf Facebook gepostete Information wahr sein müsse, hieß es in einem Statement. Das Unternehmen sicherte lediglich zu, den Beitrag nicht so häufig in Newsfeeds der Nutzerinnen und Nutzer anzuzeigen. Das Video blieb online.

Feedback für Facebook

Der Fall ist exemplarisch für eine Debatte, die seit Jahren läuft: Was darf auf Facebook bleiben – und was gehört gelöscht? Und wie willkürlich wird das entschieden? In Zeiten, in denen viele Timelines voll sind von Hatespeech und Fake-News, ist das eine wichtige Frage. 

Die Content-Moderatoren von Facebook müssen sie täglich beantworten: Sie bewerten die von Nutzern gemeldeten Postings und löschen sie gegebenenfalls. Maßstab dafür sind die inhaltlichen Standards, die das Unternehmen 2018 formuliert hatte.

Und doch führt das bisher zu noch mehr Fragen. Etwa zu der, ob ein so großes und mächtiges Netzwerk allein darüber entscheiden sollte, was gelöscht wird und was nicht. Es gibt Kritiker, die die Meinungsfreiheit gefährdet sehen und von Zensur sprechen. 

Facebook hat auf diese Sorge mit der Ankündigung reagiert, ein unabhängiges Aufsichtsgremium einrichten zu wollen, ein oversight board for content decisions. Die Mitglieder sollten "unabhängige Experten" sein und sich auf die "herausforderndsten inhaltlichen Entscheidungen" fokussieren. Sie sollen auch Facebooks Entscheidungen zu bestimmten Posts rückgängig machen können. So hieß es zumindest in einem ersten Entwurf.

Dann lud Facebook weltweit Nutzerinnen und Nutzer ein, darüber mitzuentscheiden. In sechs Workshops und 22 Diskussionsrunden diskutierten mehr als 650 Menschen aus 88 Ländern, wie das Aufsichtsgremium aussehen könnte – zuletzt am Montag in Berlin. Parallel wurden in den vergangenen Monaten auch Nutzer online um ihre Meinung gebeten, 1.206 machten mit.

In einem Feedbackbericht hat das Netzwerk die verschiedenen Meinungen zusammengetragen. Herausgekommen ist, wenig überraschend, ein Sammelsurium an unterschiedlichen Positionen: Große Einigkeit gab es über die Beschlüsse, die das Gremium fassen soll: Sie sollen Präzedenzfälle schaffen, künftig also als Orientierung für Content-Moderatoren dienen. Auch sprachen sich viele dafür aus, dass das Aufsichtsgremium Einfluss auf die Richtlinien des sozialen Netzwerks haben soll.

Nach Ansicht der meisten Befragten sollen die Gremiumsmitglieder Vergütungen erhalten. Facebook hat bereits angekündigt, einen unabhängigen Fonds aufzusetzen. Das externe Board soll nicht direkt von Facebook bezahlt werden.