Facebook gibt sich einen Supreme Court – Seite 1

Erst im Mai gab es wieder so einen Fall. Im Netz kursiert ein Video von Nancy Pelosi, der Sprecherin des US-Repräsentantenhauses. Der Clip zeigt sie im blauen Kostüm auf einer Bühne, sie spricht über den amerikanischen Präsidenten Donald Trump. Bei diesem Präsidenten wisse man nie so genau, sagt sie. Die Worte scheinen bemüht – als sei Pelosi betrunken.

Das Video verbreitete sich schnell, auf Facebook wurde es unter anderem von der konservativen Seite Politics WatchDog geteilt. Auch auf YouTube gibt es Versionen davon. Doch das Video ist manipuliert: Die Sequenzen wurden offenbar absichtlich so verlangsamt, dass die Sprache der Demokratin undeutlich wirkt, das zeigt der Vergleich mit dem Originalclip. Die Urheber wollten Pelosi offensichtlich politisch beschädigen.

Facebook wurde auf die Verfälschung aufmerksam gemacht. Und tat: nichts. Es gebe keine Richtlinie, die besage, dass eine auf Facebook gepostete Information wahr sein müsse, hieß es in einem Statement. Das Unternehmen sicherte lediglich zu, den Beitrag nicht so häufig in Newsfeeds der Nutzerinnen und Nutzer anzuzeigen. Das Video blieb online.

Feedback für Facebook

Der Fall ist exemplarisch für eine Debatte, die seit Jahren läuft: Was darf auf Facebook bleiben – und was gehört gelöscht? Und wie willkürlich wird das entschieden? In Zeiten, in denen viele Timelines voll sind von Hatespeech und Fake-News, ist das eine wichtige Frage. 

Die Content-Moderatoren von Facebook müssen sie täglich beantworten: Sie bewerten die von Nutzern gemeldeten Postings und löschen sie gegebenenfalls. Maßstab dafür sind die inhaltlichen Standards, die das Unternehmen 2018 formuliert hatte.

Und doch führt das bisher zu noch mehr Fragen. Etwa zu der, ob ein so großes und mächtiges Netzwerk allein darüber entscheiden sollte, was gelöscht wird und was nicht. Es gibt Kritiker, die die Meinungsfreiheit gefährdet sehen und von Zensur sprechen. 

Facebook hat auf diese Sorge mit der Ankündigung reagiert, ein unabhängiges Aufsichtsgremium einrichten zu wollen, ein oversight board for content decisions. Die Mitglieder sollten "unabhängige Experten" sein und sich auf die "herausforderndsten inhaltlichen Entscheidungen" fokussieren. Sie sollen auch Facebooks Entscheidungen zu bestimmten Posts rückgängig machen können. So hieß es zumindest in einem ersten Entwurf.

Dann lud Facebook weltweit Nutzerinnen und Nutzer ein, darüber mitzuentscheiden. In sechs Workshops und 22 Diskussionsrunden diskutierten mehr als 650 Menschen aus 88 Ländern, wie das Aufsichtsgremium aussehen könnte – zuletzt am Montag in Berlin. Parallel wurden in den vergangenen Monaten auch Nutzer online um ihre Meinung gebeten, 1.206 machten mit.

In einem Feedbackbericht hat das Netzwerk die verschiedenen Meinungen zusammengetragen. Herausgekommen ist, wenig überraschend, ein Sammelsurium an unterschiedlichen Positionen: Große Einigkeit gab es über die Beschlüsse, die das Gremium fassen soll: Sie sollen Präzedenzfälle schaffen, künftig also als Orientierung für Content-Moderatoren dienen. Auch sprachen sich viele dafür aus, dass das Aufsichtsgremium Einfluss auf die Richtlinien des sozialen Netzwerks haben soll.

Nach Ansicht der meisten Befragten sollen die Gremiumsmitglieder Vergütungen erhalten. Facebook hat bereits angekündigt, einen unabhängigen Fonds aufzusetzen. Das externe Board soll nicht direkt von Facebook bezahlt werden.

Wie unabhängig muss das Gremium sein?

Längst nicht alle Ideen aus Facebooks erstem Entwurf kamen gut bei den Befragten an. Der Gesprächsbedarf ist hoch. Unklare oder strittige Punkte sind:

  • Die Auswahl der Gremiumsmitglieder: Facebook hatte im Januar vorgeschlagen, dass es aus 40 Expertinnen und Experten bestehen solle; Facebook will sie selbst auszuwählen. Das könne die Unabhängigkeit des Gremiums infrage stellen, war die Sorge in den Workshops. Einige schlugen ein Auswahlkomitee vor, das Mitglieder benennen solle.
  • Zeitaufwand: Sollen die Mitglieder Vollzeit oder Teilzeit arbeiten? Wären nur Teilzeitkräfte gefragt, würden möglicherweise Menschen mit besserem Einkommen bevorzugt, weil die sich das leisten können, sagten Teilnehmer. Es stellt sich auch die Frage, wie viele Fälle man in Teilzeit schaffen könne. Immerhin wird durch den Bericht klarer, was das Board überhaupt leisten soll: laut einem Facebook-Mitarbeiter ein bis zwei Fälle pro Woche.
  • Auswahl der Fälle: Die Fälle, über die das Aufsichtsgremium entscheiden soll, sollen von Facebook kommen sowie von den Nutzerinnen und Nutzern. Wie die gefiltert und über welche Posts genau entschieden werden sollen, ist allerdings offen.
  • Kommunikation zwischen Facebook und Aufsicht: Strittig ist, wie eng Facebook und das Gremium zusammenarbeiten sollen. Einige Teilnehmer präferierten offenbar eine Art Mauer: Facebook und Board sollten sich nicht über Fälle austauschen dürfen. Andere Befragte hielten gelegentliche Interaktion für unausweichlich. Einig war man sich darin, dass das Gremium Experten einladen dürfen soll.
  • Werte: Einige Teilnehmer schlugen vor, dass das Aufsichtsgremium eigene Werte definieren solle. Bürgerrechtler etwa plädierten dafür, Regeln anhand der Menschenrechte zu entwickeln. Andere argumentierten, für besondere Fälle sei das möglicherweise nicht ausreichend.
  • Erweiterung: Einigen Teilnehmerinnen und Teilnehmer waren die angedachten Befugnisse des Boards zu eng. Sie plädierten dafür, dass das Board auch algorithmische Entscheidungen treffen darf oder über den Einsatz künstlicher Intelligenz oder politischer Werbung befinden.
  • Ausschluss von Gremiumsmitgliedern: Sollte Facebook Mitglieder feuern können? In den Diskussionen waren viele dagegen. Das Gremium soll das hingegen schon dürfen. Dafür müssten aber klare Regeln formuliert werden, forderten einige Teilnehmer.

Facebook will das Feedback nun auswerten und im August einen finalen Bericht vorlegen. Ende des Jahres soll das Gremium arbeitsfähig sein.

Was sich herauskristallisiert: Für Facebook-Nutzer könnte das Aufsichtsgremium eine Beschwerdestelle sein, wenn Beiträge gelöscht wurden. Das könnte transparenter machen, warum Posts gelöscht werden. Denn das Gremium soll ausführliche Begründungen liefern.

Facebook übt sich schon mal in Erwartungsmanagement: "Um es ganz deutlich zu sagen: Das Aufsichtsgremium wird nicht alle Probleme von Facebook lösen können", schreibt Nick Clegg, Vizepräsident für globale Angelegenheiten und Kommunikation bei Facebook, im Vorwort des Feedbackberichts.  

Allzu großer Optimismus ist also nicht angebracht. Bei 40 Gremiumsmitgliedern wird das Board wohl eher über besonders prominente oder strittige Fälle entscheiden. Den einfachen Nutzern dürfte das nicht helfen. Transparenz gäbe es dann nur in einigen wenigen Fällen.