Das Satiremagazin Titanic war wieder einmal ganz vorne mit dabei, aber auch verwunderte Journalisten und gleich mehrere AfD-Politiker – erst wenige Tage ist das umstrittene Netzwerkdurchsetzungsgesetz (NetzDG) in Kraft, schon sorgt es für Aufregung. Es geht um fälschlich gesperrte Inhalte, um die Zukunft der Meinungsfreiheit und die Pflichten von Netzwerken wie Facebook und Twitter.

Das Wichtigste dazu im Überblick:

Was steht in dem Gesetz?

Das Netzwerkdurchsetzungsgesetz (komplett: Gesetz zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken) ist am 1. Januar 2018 in Kraft getreten. Die Anbieter sozialer Netzwerke, darunter Twitter, Facebook und YouTube, sind seitdem verpflichtet, "offensichtlich rechtswidrige Inhalte" innerhalb von 24 Stunden nach Eingang einer Beschwerde zu entfernen oder zu sperren. Für nicht offensichtlich rechtswidrige Inhalte haben sie sieben Tage Zeit. Kommen die Betreiber ihren Pflichten systematisch nicht nach, drohen Bußgelder in Millionenhöhe.

Wie kam es zustande?

Das NetzDG ist ein Projekt des Bundesjustizministers Heiko Maas (SPD). Nachdem im Jahr 2015 die Debatte über Hasskommentare in sozialen Netzwerken und deren oft nur zaghafte Löschung aufkam, rief Maas eine Taskforce ins Leben. Sie sollte mit den Unternehmen einen Maßnahmenkatalog gegen Hasskommentare erarbeiten. Weil die von Maas gewünschten Ergebnisse ausblieben, wurde das NetzDG auf den Weg gebracht und am letzten Sitzungstag der Legislaturperiode im vergangenen Sommer verabschiedet.

Was gilt als "offensichtlich rechtswidrig"?

Anleitungen zu schweren Straftaten, Volksverhetzung, die Verbreitung verbotener Symbole – das sind nur einige Beispiele für Beiträge, die nach dem NetzDG zu sperren sind. Wer es genau wissen will, findet im Gesetz: "Rechtswidrige Inhalte sind Inhalte, die den Tatbestand der §§ 86, 86a, 89a, 91, 100a, 111, 126, 129 bis 129b, 130, 131, 140, 166, 184b in Verbindung mit 184d, 185 bis 187, 201a, 241 oder 269 des Strafgesetzbuchs erfüllen." 

Konnte so etwas nicht schon vorher gemeldet werden?

Doch, denn in allen Fällen handelt es sich um in Deutschland strafbare Inhalte, die Nutzer sozialer Netzwerke den Betreibern als Verstoß gegen nationale Gesetze oder Community-Richtlinien melden konnten. Das NetzDG formalisiert diese lediglich und sieht vor, dass auch Nichtnutzer, also Besucher ohne Account, diese Inhalte etwa bei Facebook oder Twitter melden können. Zudem müssen die Betreiber einen inländischen Zustellungsbevollmächtigten stellen und deutlich schneller – eben binnen 24 Stunden – reagieren.

Wie melde ich etwas gemäß NetzDG?

Seit dem 1. Januar bieten die Netzwerke Nutzern und Besuchern ein zusätzliches Formular an, um Inhalte gemäß des NetzDG melden zu können. Bei Twitter heißt das buchstäblich "covered by Netzwerkdurchsetzungsgesetz", bei Facebook "NetzDG-Meldeformular", bei YouTube "Melden von Inhalten im Rahmen des Netzwerkdurchsetzungsgesetzes". Die Nutzer müssen angeben, gegen welche Paragrafen die Inhalte verstoßen; Facebook empfiehlt, sich juristische Hilfe zu nehmen.

NetzDG-Meldung auf Twitter © Twitter / Screenshot ZEIT ONLINE

Was passiert, wenn ein Beitrag gemeldet wird?

Zunächst wird dieser Beitrag an das entsprechende Moderationsteam des Anbieters weitergeleitet und dort überprüft. Der Urheber des Beitrags wird informiert, ob – aus Sicht des Prüfenden – ein Verstoß stattgefunden hat. Ist dem so, wird der Inhalt von der Plattform entfernt oder für Besucher mit einer deutschen IP-Adresse gesperrt. Auf Twitter erscheint beispielsweise ein Hinweis, dass ein Tweet aufgrund lokaler Gesetze entfernt wurde.

Können Entscheidungen rückgängig gemacht werden?

Vermutlich, denn die von einer Löschung betroffenen Urheber können sagen, ob sie die Entscheidung anfechten möchten. Dann dürfte der Fall an die Rechtsabteilung der Unternehmen weitergeleitet werden und noch einmal überprüft werden. Wie dieser Prozess genau aussieht und ob Streitfälle letztlich vor Gericht landen könnten, müsste ein Präzedenzfall zeigen. Bei Meldungen nach den bestehenden Community-Richtlinien kommt es jedenfalls regelmäßig vor, dass gelöschte Inhalte nach erneuter Überprüfung wiederhergestellt werden.

Kann das System missbraucht werden?

Mit Sicherheit, denn das Gesetz sieht keine Konsequenzen vor für Menschen, die legale Inhalte fälschlicherweise melden. Es gibt also keine Möglichkeit, dem Missbrauch durch Internettrolle oder zugunsten politischer Propaganda vorzubeugen. Twitter warnt seine Nutzer lediglich, dass wiederholtes falsches Melden zur Accountsperrung führen kann, was aber keine direkte Konsequenz des NetzDG ist.

Wer überprüft die Inhalte?

Um auf die kürzeren Fristen reagieren zu können, mussten die Plattformbetreiber Personal aufstocken. Facebook betreibt inzwischen zwei Löschzentren in Deutschland. Eines wird in Berlin vom Dienstleister Arvato betrieben, ein zweites mit 500 weiteren geschulten Mitarbeitern der Firma Competence Call Center wird gerade in Essen errichtet. Über den Standort und die Größe der Teams von Twitter und YouTube ist nichts bekannt. 2016 berichtete die Süddeutsche Zeitung über die schlecht bezahlte und psychisch anstrengende Arbeit in Facebooks Löschzentrum. Bei den Mitarbeitern handelt es sich dort zwar um geschultes Personal, aber in der Regel nicht um Juristen.

Ein Mitarbeiter spielt also Richter?

Nicht ganz, aber er entscheidet zumindest im ersten Moment, welche Inhalte gesperrt werden und welche nicht. Ein Facebook-Sprecher sagte dem Portal Motherboard, die Prüfung werde von einem Mitarbeiter vorgenommen, aber stichprobenartig werde das Vier-Augen-Prinzip eingesetzt. Die Unternehmen sind übrigens nur in Ausnahmefällen, etwa im Fall von Kinderpornografie, angewiesen, die Strafverfolgungsbehörden zu informieren. Wer also etwa auf Facebook bedroht wird, muss von sich aus die Polizei einschalten.