Eingeblendet wurden erfundene Geschichten vor allem älteren Menschen und jenen, die besonders viele politische Tweets sahen. Je politischer die Nutzer waren, desto mehr Fake-News bekamen sie angezeigt. Des Weiteren waren Männer, weiße Menschen und Wähler in den sogenannten Swing States eher Lügen ausgesetzt, was die Ergebnisse anderer Studien (The Web Conference: Bhatt et al., 2018 und Howard et al., 2017) bestätigt.

Ob jemand diese falschen Nachrichten wiederum selbst twitterte, hing vor allem von der politischen Einstellung ab: Weniger als fünf Prozent der Menschen links oder in der Mitte des politischen Spektrums verbreiteten Fake-News weiter. Bei den rechts oder extrem rechts eingestellten Personen waren es elf Prozent beziehungsweise 21 Prozent.

Grundsätzlich sei man eher geneigt, Texte zu teilen, die die eigene Position bestätigten, sagt die Kommunikationswissenschaftlerin Kleinen-von Königslöw. Während der US-Wahlen seien eher falsche Nachrichten in Umlauf gebracht worden, die Trump besser aussehen ließen und die demokratische Kandidatin Hillary Clinton diskreditierten. Daher sei es plausibel, dass konservative oder rechts eingestellte Menschen eher erfundene Geschichten verbreitet hätten.

Eine Fake-News macht noch keine andere Meinung

Kleinen-von Königslöw warnt aber davor, daraus zu schließen, dass diese Personen besonders einfach zu beeinflussen seien. "Menschen sind nicht so leicht manipulierbar, wie andere Menschen gerne glauben", sagt sie, "wir alle neigen dazu, an unseren Positionen und Einstellungen festzuhalten." Nur weil wir eine Fake-News lesen, würden wir nicht von einer anderen Meinung überzeugt. Wer also eine Fake-News mit einem bestimmten politischen Dreh twittert, hat diese Position sehr wahrscheinlich auch schon vorher vertreten.

Interessant: Verlinkt wurden Fake-News-Seiten insgesamt nur von einem sehr kleinen Anteil der Nutzerinnen und Nutzer. 0,1 Prozent der Twitterer posteten fast 80 Prozent der falschen Nachrichten. Genauso konsumierte nur ein Prozent fast 80 Prozent aller Fake-News-Quellen. Die Studienautorinnen vermuten, dass diese Konten halbautomatisiert seien: Zwar habe es immer wieder auch persönliche Postings oder Fotos gegeben, allerdings auch eine Menge Retweets. Für die weitere Analyse schlossen die Wissenschaftler diese Accounts daher aus.

Auch wenn Fake-News nicht unbedingt Meinungen ändern können, darf man den Einfluss solcher halbautomatisierten Konten nicht unterschätzen. "Bots oder Posting-Armeen, die zu einem bestimmten Thema tweeten oder kommentieren, erwecken den Eindruck, dass ein Großteil der Menschen diese eine Meinung vertritt", sagt Martin Emmer, Professor für Kommunikationswissenschaft an der Freien Universität Berlin und Gründungsdirektor am Weizenbaum-Institut in Berlin. "Mittelbar kann das auch Wahlergebnisse beeinflussen, weil diese Konten das öffentliche Bild über ein Thema manipulieren." Sie könnten auch zu einer weiteren Polarisierung beitragen.

Uneingeschränkt auf alle anderen sozialen Netzwerke übertragbar sind die Ergebnisse der Science-Studie nicht. Die Plattformen unterscheiden sich in ihren Konzepten und werden dementsprechend auch anders genutzt. In Deutschland und den USA wird Twitter eher als professionelle Plattform verwendet, auf Facebook hingegen mischen sich stärker private Posts von Freundinnen und politische Informationen. Das mache es schwieriger, politische Nachrichten immer mit genug kritischer Distanz zu lesen, sagt Kommunikationswissenschaftler Emmer.