Unwahre Behauptungen und Nachrichten verbreiten sich auf Twitter deutlich schneller und erreichen mehr Menschen als wahre Informationen. Zu diesem Ergebnis kommt ein Forscherteam um Sinan Aral vom Massachusetts Institute of Technology (MIT). Die Ergebnisse der Untersuchung mit dem Titel Die Verbreitung von wahren und falschen Online-Nachrichten wurden in der Fachzeitschrift Science veröffentlicht.

Für die bisher größte Langzeitstudie dieser Art untersuchte das Team die Verbreitung von 126.000 englischsprachigen Geschichten. Diese wurden in den Jahren 2006 bis 2017 von drei Millionen Menschen mehr als 4,5 Millionen mal getwittert. Unabhängige Faktenchecker überprüften die Geschichten in einem aufwändigen Verfahren auf ihren Wahrheitsgehalt, bevor deren Weiterverbreitung von den Forschern untersucht wurde. Dabei erhielt das Team Unterstützung von Twitter: Das Unternehmen ließ das Team auf seine Daten zugreifen. Einer der beteiligten MIT-Forscher, Deb Roy, arbeitete von 2013 bis 2017 selbst für das Unternehmen.

Die Untersuchung zeigt, dass ein unwahrer Inhalt eine um 70 Prozent höhere Wahrscheinlichkeit hat, von Nutzerinnen und Nutzern weiterverbreitet zu werden. Ob dies absichtlich erfolgte oder nicht, war nicht Bestandteil der Untersuchung.

Nach Angaben des Forschungsteams wurden unwahre Inhalte in allen Sparten und in allen Formen weiterverbreitet: Es betraf Themen von Politik bis Unterhaltung und Bilder ebenso wie Behauptungen oder Links zu einem Originalartikel. Politische Themen seien jedoch mit Abstand am häufigsten betroffen gewesen, schreiben die Forscher. In den US-Wahlkampfjahren 2012 und 2016 sei zudem der Schnellballeffekt besonders stark gewesen. Diese sich fortwährend steigernde Kettenreaktion habe auch insgesamt mit den Jahren zugenommen, schreiben die Forscher. 

Mit deutlichem Abstand zu politischen Themen seien auch Tweets oder Retweets zu modernen Mythen, sogenannten urban legends, und wieder mit deutlichem Abstand Tweets mit unwahren Inhalten aus den Bereichen Wirtschaft, Terrorismus, Wissenschaft, Unterhaltung und Naturkatastrophen betroffen gewesen.

Bots nicht ausschlaggebend

Die Forscher wollten in einem weiteren Schritt wissen, warum sich unwahre Inhalte schneller und weiter verbreiteten. Sie kamen zu einer einfachen Antwort: "Weil wir Neues mögen". Unwahre Inhalte würden andere Emotionen hervorrufen bei den Nutzerinnen und Nutzern hervorrufen. So hätten sie häufig spannender und neuartiger auf die Twitter-Nutzer gewirkt, schreiben die Forscher. Die Nutzerinnen und Nutzer hätten Überraschung, Angst und Ekel gezeigt. Wahre Nachrichten hingegen hätten häufiger traurige Reaktionen ausgelöst, aber auch Vorfreude und Vertrauen.   

Nach Angaben der Forscher könnten Nutzer sozialer Netzwerke mit bislang unbekannten (aber unwahren) Nachrichten auch die Aufmerksamkeit auf sich lenken. Solche Nutzerinnen und Nutzer vermittelten den Eindruck, im Bilde zu sein, sagte Sinan Aral, ein Autor der Studie.

Menschen verbreiten mehr Unwahrheiten als Bots

Auch den Einfluss von Bots – die automatisch Tweets absetzen und oftmals programmiert wurden, um Unwahrheiten zu streuen – untersuchten die Forscher. Sie kamen zu dem Ergebnis, dass diese die Weiterverbreitung von Unwahrheiten zwar antrieben. Sie seien aber nicht ausschlaggebend: "Menschliches Verhalten trägt mehr zur unterschiedlichen Ausbreitung von Unrichtigem und Wahrheit bei als automatisierte Roboter", schreiben die Forscher. Das solle man auch bei der Bekämpfung dieses Trends im Blick behalten.  

Ob der Kampf gegen die rasante Verbreitung von Unwahrheiten alleine durch Fakten-Checks gelingen kann, bezweifeln der Politikwissenschaftler David Lazer von der North Eastern University und einige weitere Kollegen in einem Science-Begleitartikel. Viele Menschen bevorzugten schlicht Informationen, die ihre vorhandenen Sichtweisen bestätigen. 

Die Fachleute sehen deshalb vor allem die Anbieter sozialer Medien in der Pflicht. "Die Plattformen könnten den Konsumenten Hinweise auf die Qualität der Quellen liefern." Auch könnten sie aus den sogenannten Trending-Themen die Aktivitäten von Bots herausfiltern. Trotz erster derartiger Ansätze sollten Facebook, Twitter und andere Netzwerke dabei mit unabhängigen Fachleuten zusammenarbeiten, empfehlen die Forscher.