Am Ende war es wie ein Dominoeffekt. Twitter. Facebook. YouTube. TikTok, Reddit, Pinterest. Nach dem Angriff von Donald Trumps Anhängerinnen und Anhängern auf das Kapitol entschied eine Social-Media-Plattform nach der anderen, Konten des noch amtierenden US-Präsidenten zu sperren.
Seitdem ist eine Debatte darüber entbrannt, ob eine private Firma das eigentlich darf beziehungsweise dürfen sollte: das Konto eines gewählten Staatsoberhauptes sperren. Während die einen diesen Schritt als "überfällig" bezeichnen oder als digitalen "Sumpf", der endlich trockengelegt werde, warnen andere, dass Social-Media-Plattformen in das Grundrecht auf Meinungsfreiheit eingreifen – oder dass es beunruhigend sei, wenn Privatunternehmen "de facto darüber entscheiden, was wir sehen dürfen".
Üben die Unternehmen nur ihr Hausrecht aus, so wie ein Wirt eben auch einen rüpeligen Gast rauswerfen darf? Greifen sie in die Meinungsfreiheit ein? Oder gar in die Demokratie, weil sie einem Staatsoberhaupt ein wichtiges Sprachrohr nehmen? Oder sehen wir einfach derzeit den Moment, in dem die Plattformen nicht länger so tun können, als stünden sie als unbeteiligte Beobachter am Spielfeldrand? Viele Fragen, die noch mehr Fragen aufwerfen, auf die es leider kaum einfache Antworten gibt.
Die Debatte darüber ist derzeit hitzig, dabei wird sie eigentlich schon seit vielen Jahren geführt. Spätestens seit dem US-Wahlkampf 2016, bei dem versucht wurde, bestimmte Wählergruppen mit manipulativen Tricks und Einmischungen von den Wahlurnen fernzuhalten, ist auch der breiten Masse bewusst geworden, dass digitale Angriffe auch große Auswirkungen auf unsere analoge Welt haben. Doch auch vier Jahre nach diesem Ereignis macht die Diskussion, wie soziale Netzwerke auf all das reagieren sollen, immer noch einen in weiten Teilen ratlosen Eindruck.
Denn sie weist weit über die wütenden Caps-Lock-Posts des Noch-Präsidenten der USA hinaus. Es geht um die Frage, welche Rolle soziale Medien in unseren Gesellschaften einnehmen. Wie viel Verantwortung sie dafür übernehmen müssen oder dürfen, was für Inhalte über sie transportiert werden, wie sie sie verstärken oder begrenzen. Es geht darum, wie Gesellschaften damit umgehen, dass Hass und Hetze im Netz andere Dynamiken entwickeln, als dies im Analogen der Fall ist. Es geht um das Problem, dass soziale Netzwerke, wenig überraschend, eben nicht nur dazu genutzt werden, Menschen zu vernetzen, sondern auch dazu, Gesellschaften zu spalten, Minderheiten einzuschüchtern, Menschen zu radikalisieren – und dass diese Radikalisierung dann auch in die Offlinewelt zurückschwappen kann.
Die Plattformen haben das Problem geschaffen, sie sollen es bitte auch lösen
Viele Lösungsversuche zielen auf die großen Techunternehmen ab. Verständlich, schließlich sind es ihre Portale, auf denen sich unter anderem Hetze, Lügen und gezielte Desinformation verbreiten – warum sollten sich Facebook, Twitter oder YouTube dann nicht auch um eine Lösung für sie bemühen müssen? Strittig ist dann aber schnell, wie genau diese Lösungen konkret aussehen können.
Schon lange pflegen die Plattformen eigene Richtlinien, die Nutzerinnen und Nutzer befolgen müssen: Auf Facebook sollten sie unter anderem nicht zu viel nackte Haut posten, auf YouTube kein Cybermobbing betreiben und auf Twitter andere Menschen nicht belästigen. Sonst droht ihnen das Gleiche wie Trump: Sie könnten ihren Account verlieren. Außerdem gelten natürlich überall auf der Welt Gesetze: Was Gerichte verbieten, müssen die Plattformen von den Seiten nehmen – nur ist dieser Weg in der Regel so langwierig, sind die zuständigen Behörden so unterbesetzt, dass Entscheidungen viel zu spät fallen, um Betroffene zu schützen.
Trotzdem haben sich die Unternehmen lange auf die Position zurückgezogen, dass sie nur eine Plattform bieten, inhaltlich aber nicht verantwortlich für das sind, was dort gepostet wird. Mark Zuckerberg sagte noch 2018 während einer Senatsanhörung, dass es nicht Facebooks Ziel sei, in politische Aussagen einzugreifen. Immer wieder spielte er sich als Hüter der Meinungsfreiheit auf. Twitter-Chef Jack Dorsey argumentierte damals noch ähnlich und sagte, man könne doch nicht ständig die Regularien wegen einiger Einzelfälle anpassen. Und auch YouTube-Chefin Susan Wojcicki sagte noch im vergangenen Jahr, die Plattformen seien neutral und fair.
In den USA, wo viele der Plattformen ansässig sind, gibt Section 230 des Communications Decency Acts von 1996 ihnen darin recht: Danach können Plattformen nicht haftbar für das gemacht werden, was Dritte dort äußern, sie dürfen allerdings moderierend eingreifen. Während einige Forscher wie die Netzbürgerrechtsspezialistin Danielle Citron dies kritisieren, weil Plattformen so von jeglicher Verantwortung für Inhalte befreit würden, verteidigt die Digitalbürgerrechts-NGO Electronic Frontier Foundation den Paragrafen als "das wichtigste Gesetz zum Schutz freier Meinungsäußerung im Netz". Derzeit wird in den USA heftig über Änderungen hierzu diskutiert: Donald Trump und die Republikaner sehen in den Moderationsbefugnissen der Plattformen Zensur, während Joe Biden und den Demokraten das Gesetz nicht weit genug geht. Biden äußerte kürzlich in einem Interview mit der New York Times die Idee, Section 230 aufzuheben.
Dabei gingen die Richtlinien der Plattformen schon in der Vergangenheit nicht immer damit einher, was man gesellschaftlich akzeptabel findet und was nicht. So findet Facebook schon einen entblößten Nippel auf einem Bild oft sperrwürdig, was in den USA vielleicht auf Zustimmung stößt, in Deutschland aber gewöhnlich kein Grund zum Löschen wäre. Hass hingegen bleibt dagegen teilweise stehen, auch wenn er gemeldet wird. Doch es ist sicherlich auch einfacher, nackte Haut automatisiert zu erkennen als einen beleidigenden Textbeitrag, der auch einfach Satire sein könnte.
Ein Problem ist auch: Was Plattformen wegmoderieren und nach welchen Regeln, ist häufig eine Blackbox: Facebook, Twitter, aber auch neuere Anbieter wie TikTok statten ihre Moderationsteams zwar mit langen Regelwerken aus, was akzeptable Inhalte sind und was nicht, diese Dokumente sind aber in der Regel nicht öffentlich und verändern sich ständig. Und vor allem: Was darin steht, entscheiden die Plattformen eigenständig. Kritik gibt es auch immer wieder an den Arbeitsbedingungen für diejenigen, die eben jene Regelwerke dann anwenden müssen: Content-Moderatorinnen und -Moderatoren arbeiten häufig vom anderen Ende der Welt aus, müssen viele Entscheidungen binnen Sekunden treffen – und einige von ihnen sind von der Arbeit schwer traumatisiert.
Am Ende war es wie ein Dominoeffekt. Twitter. Facebook. YouTube. TikTok, Reddit, Pinterest. Nach dem Angriff von Donald Trumps Anhängerinnen und Anhängern auf das Kapitol entschied eine Social-Media-Plattform nach der anderen, Konten des noch amtierenden US-Präsidenten zu sperren.
Seitdem ist eine Debatte darüber entbrannt, ob eine private Firma das eigentlich darf beziehungsweise dürfen sollte: das Konto eines gewählten Staatsoberhauptes sperren. Während die einen diesen Schritt als "überfällig" bezeichnen oder als digitalen "Sumpf", der endlich trockengelegt werde, warnen andere, dass Social-Media-Plattformen in das Grundrecht auf Meinungsfreiheit eingreifen – oder dass es beunruhigend sei, wenn Privatunternehmen "de facto darüber entscheiden, was wir sehen dürfen".