"Dass man online ausrastet, ist vielleicht das Natürlichste der Welt"

ZEIT ONLINE: Frau Brodnig, wann sind Sie das letzte Mal online ausgerastet? 

Ingrid Brodnig: Gestern Nachmittag. Ein Radiosender hat mich interviewt und ein Foto mit mir auf Twitter gepostet – prompt kam eine fiese Anmerkung über mein Aussehen. Zum Inhalt des Interviews, zum Thema fiel diesem User hingegen nichts ein. Ich habe nicht wütend zurückgepostet, weil ich das gar nicht mit meiner Aufmerksamkeit belohnen wollte. Dass man online ausrastet, ist vielleicht sogar das Natürlichste der Welt, aber ich versuche zumindest tief durchzuatmen, bevor ich etwas schreibe.

ZEIT ONLINE: Sie beschreiben in Ihrem Buch zwei Typen von Usern: Trolle und Glaubenskrieger. Was verstehen Sie darunter? 

Brodnig: Die Gruppe der Trolle versucht Menschen auf die Palme, zur Rage oder zur Verzweiflung zu bringen. Trolle sehen sich als Intellektuelle, die es schaffen, Menschen in die Irre zu führen oder zu manipulieren. Es ist eine eher kleine, aber sehr erfolgreiche Gruppe, die oft von Sadismus angetrieben wird. Das ist das Ergebnis der kanadischen Studie Trolls just want to have fun. Zum Beispiel suchen Trolle gerne Kondolenzseiten von Verstorbenen auf und posten dort Herabwürdigendes, um Angehörige zu verletzen und Reaktionen zu provozieren. Man muss aber festhalten, dass es nur sehr wenige Trolle gibt.

ZEIT ONLINE: Und die andere Gruppe?

Brodnig: Die andere Gruppe sind die Glaubenskrieger. Sie sieht sich in einem Informationskrieg und in ihrem Weltbild so sehr im Recht, dass sie bereit ist, ethische Grenzen zu überschreiten. Das erleben wir beispielsweise in der Flüchtlingsdebatte. Hier sind sehr viele User so extrem von ihrer eigenen Wahrheit eingenommen, dass man sie mit Argumenten kaum noch erreicht. 

Ingrid Brodnig ist Redakteurin beim österreichischen Nachrichtenmagazin "Profil". Nach "Der unsichtbare Mensch" erscheint mit "Hass im Netz" ihr zweites Buch über die Debatten im Netz. © Ingo Pertramer

ZEIT ONLINE: Wie groß sind diese beiden Gruppen im Netz im Vergleich zu denjenigen Nutzern, die konstruktive Beiträge posten? 

Brodnig: Gerade in Deutschland gibt es viele User aus diesen beiden Gruppen, die immer wieder posten: "Wir sind die schweigende Mehrheit." Doch diese User sind weder schweigend noch sind sie die Mehrheit. Wir beschäftigen uns aber so sehr mit den aggressiven Nutzern, dass es so scheint. 

ZEIT ONLINE: Warum ist der Hass im Netz so erfolgreich? 

Brodnig: Das Problem ist, dass die digitale Debatte ein Zerrspiegel ist. Gewisse Meinungen, obwohl sie eher eine Randmeinung sind, sind viel stärker sichtbar als andere. Mir war zum Beispiel lange nicht bewusst, wie erfolgreich die pure Wiederholung einer Lüge ist. Wie sehr ich mit dem ständigen Wiederholen von Halbwahrheiten bei Menschen den Eindruck erwecken kann, dass doch etwas dran sein muss. Ein gutes Beispiel dafür gibt der Mythos von den vergewaltigenden Muslimen in Schweden ab, den Internetseiten wie Politically Incorrect damit belegen wollen, dass die Vergewaltigungsrate seit 2006 sprunghaft um mehr als 200 Prozent angestiegen ist. Das ist ein Fakt, nur wird der irreführend interpretiert. Die Zunahme an registrierten Vergewaltigungen hängt mit einer Gesetzesreform zusammen. In Schweden gibt es seit 2006 ein sehr viel strengeres Verständnis davon, wann jemand wegen Vergewaltigung schuldig gesprochen werden kann als zuvor. Außerdem werden Täter in Schweden nicht nach ihrer Herkunft und Religion registriert. Islamfeindliche Blogs behaupten aber einfach, Muslime seien schuld – auch wenn das einer strengen Prüfung nicht standhält. 

Onlinemedien - Kein Kommentar! Immer mehr Onlinemedien schränken ihre Kommentarfunktionen ein oder schließen sie ganz. Ein Angriff auf die Meinungsfreiheit oder Notwehr?

Wenn die eigene Meinung wie ein Echo zurückhallt

ZEIT ONLINE: Trotzdem hält sich der Mythos von den vergewaltigenden Muslimen in Schweden hartnäckig.

Brodnig: Weil sich Menschen online in Wut und Angst hineinsteigern können. Sie nutzen Facebook-Gruppen, Webseiten oder Newsletter, die ihre Ängste ansprechen und sie ständig mit Horrorgeschichten dazu versorgen, sie bewegen sich in einem Personenkreis, der ihre Ängste teilt. Natürlich werden dann viele Menschen irgendwann glauben, dass selbst überzogene Ängste rational sind. Das Kernproblem ist, dass dieser Mechanismus im Internet durch Echokammern noch um ein Vielfaches wirkungsvoller ist. 

ZEIT ONLINE: Echokammern? 

Brodnig: Echokammern sind digitale Räume, in denen die eigene Meinung wie ein Echo zurückhallt. Wenn ich mich in solch einem Raum befinde, ist die Gefahr größer, dass ich die Lügengeschichten zu glauben beginne, die darin kursieren. Viele Glaubenskrieger und aggressive Nutzer machen sich das zunutze, um ihre Ansichten zu verbreiten. Mithilfe von Echokammern verbreiten sich Lügen und Falschmeldungen binnen weniger Stunden über die ganze Welt.

ZEIT ONLINE: Warum fallen Menschen darauf herein?

Brodnig: Weil wir nicht so vernunftgetrieben sind, wie wir gerne glauben. Menschen selektieren bevorzugt Informationen, die ins eigene Weltbild passen und bewerten sie als besonders relevant, während sie Nachrichten, die ihnen nicht passen, geringer bewerten. In der Psychologie gibt es dafür einen Begriff: den Bestätigungsfehler. Das ist nicht neu, aber im Netz potenziert sich das. In Echokammern besteht die Gefahr, dass der User sich zu wenig hinterfragt und zu einfachen Antworten neigt. 

ZEIT ONLINE: Welche Rolle spielen dabei die Algorithmen? 

Brodnig: Die kommen noch hinzu. Es ist das eine, dass wir Menschen selbst aussuchen, welche Seiten wir zum Beispiel auf Facebook abonnieren. Hinzu kommt aber noch, dass Software für uns Inhalte selektiert, ohne dass wir wissen, was genau ausgefiltert wird. Als User klicke ich bei gewissen Seiten oder Postings auf Facebook auf Like, weil sie mir gefallen, und der Algorithmus vergleicht das und selektiert, welchen Inhalt ich in Zukunft auf Facebook nicht mehr sehe. Darüber aufgeklärt wird der Nutzer aber nicht. Hier sind wir in einer Blackbox, weil wir nicht einschätzen können, inwieweit unsere Wahrheit oder das, was wir als Wahrheit wahrnehmen, durch die Algorithmen beeinflusst wird.

Illustration aus Ingrid Brodnigs Buch "Hass im Netz", Verlag Brandstätter © Oliver Hofmann

ZEIT ONLINE: Und jetzt? 

Brodnig: Was uns fehlt, ist eine Transparenz, ein Wissen darüber, inwieweit diese Probleme der Polarisierung in der Gesellschaft von Algorithmen mit angelegt werden. Die großen IT-Unternehmen wie Facebook, Apple oder Google könnten offener sein. Sie könnten Wissenschaftler von außen einladen, sich den Algorithmus anzusehen und ihn zu testen, ohne dass alle Betriebsgeheimnisse offengelegt werden. Zum Beispiel ließe sich auswerten, inwieweit der Facebook-Algorithmus vor Usern Informationen versteckt, die ihnen nicht ins Weltbild passen. Sie könnten uns aber auch die Wahl lassen, den Algorithmus zu deaktivieren.

ZEIT ONLINE: Unternimmt Facebook genug gegen Hass? 

Brodnig: Gute Frage. Facebook hat zwar versprochen, künftig mehr gegen solche Kommentare zu unternehmen. Es sagt aber nicht, wie viele Moderatoren es weltweit anstellt. Solange diese Information nicht öffentlich ist, lässt sich das aber schwer bewerten.  Facebook selbst redet sehr gerne über counter speech, Gegenrede zu Deutsch. Facebook sagt, es sei wichtig, dass Menschen das Wort ergreifen, wenn sie etwas problematisch finden. Und das stimmt natürlich, da hat Facebook schon recht. Unternehmen, die digitale Räume für den menschlichen Austausch zur Verfügung stellen, haben eine Verantwortung dafür, wie dieser digitale Austausch dort stattfindet und funktioniert. Nutzer haben wirklich schlimme, hasserfüllte Postings bei Facebook gemeldet. Holocaustleugnungen, Aufrufe zur Gewalt. Interessanterweise verstoßen die gemeldeten Kommentare nicht nur gegen nationale Gesetze, sondern auch gegen Facebooks eigene Communityrichtlinien. Trotzdem werden diese Kommentare oft nicht von Facebook gelöscht, auch wenn man sie meldet. 

ZEIT ONLINE: Und die Politik? 

Brodnig: Wenn IT-Unternehmen ihre Verantwortung nicht wahrnehmen, dann braucht es die Politik. Das passiert auch schon im Kleinen, aber klare Antworten hat die Politik bislang nicht. Man könnte durchaus mehr regulieren. Zum Beispiel könnten für Algorithmen Transparenzvorgaben oder ein unabhängiges Gütesiegel eingeführt werden. Wir haben viele Möglichkeiten noch nicht ausgeschöpft. Aber immerhin gibt es inzwischen eine öffentliche Diskussion. Auch weil zunehmend Politiker merken, dass es verdammt gefährlich ist, da nicht hinzuschauen.

"Meinungsfreiheit ist nicht das Recht, immer Gehör zu finden"

ZEIT ONLINE: Wie reagieren Sie auf Beleidigungen?

Brodnig: Im ersten Moment würde ich gerne etwas Deftiges, wie man in Österreich sagt, zurückschreiben. Ich überlege dann aber, wie ich das Geschriebene umdrehen könnte. Wie kann ich die Debatte auf eine Ebene führen, die mir behagt? Aber das ist unglaublich schwierig.

Mein Ziel ist es, in meinen Antworten möglichst humorvoll zu bleiben. Aber es gelingt mir leider in neun von zehn Fällen nicht. Meistens versuche ich dann nachzufragen, wie es gemeint war, um dadurch die Diskussion zu entschärfen und wieder auf eine sachliche Ebene zu führen. Denn: In dem Moment, in dem man dem anderen Feedback gibt, rudern viele schon zurück.

ZEIT ONLINE: Verhalten sich Menschen online anders? 

Brodnig: Ja, ein wichtiger Faktor ist die sogenannte Unsichtbarkeit des Gegenüber, und dass ich nicht mitbekomme, wie verletzend meine Worte sind, wenn ich etwas eintippe. Das Fehlen nonverbaler Signale führt dazu, dass wir oft schroffer und enthemmter sind. Zwei israelische Forscher haben für eine Studie Menschen online miteinander diskutieren lassen. Und diejenigen, die per Webcam Augenkontakt hatten, haben viel seltener Drohungen oder Beleidigungen geäußert. Augenkontakt fördert die Empathie.

Illustration aus Ingrid Brodnigs Buch "Hass im Netz", Verlag Brandstätter © Oliver Hofmann

ZEIT ONLINE: Falschmeldungen spielen in Ihrem Buch eine wichtige Rolle. Wie kann ein normaler User erkennen, dass es sich bei einer Meldung um eine Falschmeldung handelt? 

Brodnig: Es gibt ein paar Warnsignale, die mir helfen können, Falschmeldungen zu erkennen. Zum Beispiel, wenn ich die Originalquelle nicht ausfindig machen kann. Oder wenn jemand als Quelle einer Horrorstory die Nachbarin der Cousine einer Arbeitskollegin nennt. Oft werden nur vage Quellen genannt – denn der Vorfall hat ja nie stattgefunden. Wenn eine Geschichte zu gut klingt, wenn ein Bild äußerst schockierend ist, sollte man vorsichtig werden.

Ich kann jedem nur empfehlen, die Rückwärtsbildersuche auf Google einmal auszuprobieren. Dort lädt man ein Foto hoch und sieht, wo es schon im Web auftauchte. Viele Bilder kursieren seit Jahren im Netz und werden immer wieder missbräuchlich in neue Zusammenhänge gestellt.

ZEIT ONLINE: Die Leser sollten sich eine gesunde Skepsis bewahren?

Brodnig: Ja. Außerdem machen viele Menschen keinen Unterschied mehr zwischen einem Medium wie ZEIT ONLINE oder der Süddeutschen Zeitung, die nach klaren journalistischen Maßstäben arbeiten, und Blogs wie Politically Incorrect. Und das ist ein großes Problem. Dann sagen diese Menschen sich häufig, die Wahrheit wird wohl irgendwo dazwischen liegen. Aber das ist extrem gefährlich. Denn dann kann die Seite, die immer Unsinn erzählt, immer radikaler werden. Und was dann als Wahrheit gesehen wird, rückt immer weiter weg von der Realität.

ZEIT ONLINE: Oft wissen die Menschen nicht, was seriöse Medien von nicht-seriösen unterscheidet. Lässt sich das ändern? Wo muss man da ansetzen? 

Brodnig: In der Schule anzusetzen, das wäre logisch nur konsequent. Ich rate aber auch, über diese Themen im Freundeskreis zu sprechen. Vielleicht ist es dem ein oder anderen schon passiert: Ein Bekannter, den man eigentlich mag, postet auf einmal ganz aufgebracht eine höchst umstrittene Website, einfach weil ihn das, was er dort liest, so schockiert. Ich glaube, dass man in vielen Fällen auch in seinem persönlichen Umfeld auf freundliche Art und Weise einen helfenden Hinweis geben kann. Dafür ist die private Nachricht meist der bessere Weg als ein öffentlich für jeden sichtbarer Kommentar. Und wer ein, zwei Mal auf richtige Fakes reingefallen ist, wird in Zukunft zurückhaltender. 

ZEIT ONLINE: Ist das im Menschen nicht einfach so angelegt? Dass er einer Nachricht vertrauen und sie sorglos konsumieren will? Dass er sie so nimmt, wie sie ist? Ist das bessere Netz eine Utopie? 

Brodnig: Nein: Wir haben ja noch nicht alle möglichen Schritte ergriffen, um Menschen vor dem Hass im Netz zu schützen. Weder aufseiten von Unternehmen wie Facebook noch in der Politik oder bei den klassischen Medien. Dementsprechend fatal wäre es, jetzt zu sagen: Das Internet ist halt so, kann man nix machen! Und es tut sich ja was: Zum Beispiel gibt es zunehmend Seiten, die wie Mimikama Fakes hervorheben und falsifizieren. Und diese Seiten werden sehr gut gelesen. Ich glaube, es gibt bei den Nutzern den Wunsch, nicht in die Irre geführt zu werden. Es gibt Forschungen darüber, wie die Richtigstellung einer Falschmeldung aussehen sollte, damit sie gut funktioniert. Korrekturen sollen nicht als Verneinung formuliert werden. Es gibt etwa das Gerücht, US-Präsident Barack Obama sei Muslim. Die naheliegende Antwort darauf wäre: "Nein, Barack Obama ist kein Muslim." Aber wenn ich eine Falschinformation negiere, rufe ich sie dabei erneut in Erinnerung – viele Menschen erinnern sich danach umso mehr an die Falschmeldung, nicht die Richtigstellung. Effizienter sind affirmative Korrekturen wie: "Nein, Barack Obama ist Christ." Das merkt man sich eher.

ZEIT ONLINE: Muss das Internet ein bisschen unfreier werden? 

Brodnig: Das glaube ich eigentlich nicht. Wenn ich es als unfrei ansehe, dass ich andere Menschen nicht mit dem Tod oder Vergewaltigung bedrohen darf, dann ja, dann sollte das Internet unfreier werden. Aber wenn es darum geht, Meinungen zu vertreten, dann gibt es gleich viel Freiheit wie vorher. Ich finde es ist extrem wichtig, sich in diese Diskussion nicht immer wieder hineintreiben zu lassen. Meinungsfreiheit ist nicht das Recht, immer und überall von jedem Gehör zu finden. Wenn ich jemandem das Recht auf Leben abspreche oder ihn wirklich bedrohe, hören die Freiheiten auf. Dass es Räume gibt, in denen solche Kommentare ohne Konsequenz gepostet werden können, das ist das echte Problem.

Ingrid Brodnig, "Hass im Netz. Was wir gegen Hetze, Mobbing und Lügen tun können", Verlag Brandstätter, 230 Seiten, 17,90€, erscheint am 25. April 2016.