Wer auf Google nach "Impfen MMR" sucht, findet eine Fülle von seriösen Informationen zu dieser Impfung, die Kinder unter anderem vor Masern schützt. Ganz oben der Wikipedia-Artikel, dann folgt eine Informationsseite des Robert-Koch-Instituts. Auf der ersten Trefferseite findet sich nicht ein einziger Link zu einer Website von Impfgegnern.

Ganz anders sieht es aus, wenn man dieselben Begriffe in das Suchfeld von YouTube tippt: Zwar steht auch dort ganz oben ein seriöser Film der AOK, aber schon an dritter Stelle kommt ein Filmchen mit dem Titel Aluminium – die verschwiegene Gefahr beim Impfen. Und an Nummer sechs ein Clip, der den längst widerlegten Zusammenhang zwischen Impfen und Autismus propagiert.

Klickt man einen dieser unseriösen Filme an, dann gerät man in einen regelrechten Strudel von Verschwörungstheorien, Esoterik und flacher Lebenshilfe: In der rechten Randspalte nämlich, überschrieben mit dem Hinweis "Nächstes Video", empfiehlt YouTube den Zuschauerinnen und Zuschauern eine Reihe weiterer Bewegtbilder. Und spielt sie auch noch automatisch ab, wenn man nicht auf Stopp drückt. Darunter: ein Video mit dem Ufopropheten Erich von Däniken, eine alternative Erklärung für den Einsturz des World Trade Centers am 11. September und die angeblich wahre Geschichte des Aufstiegs von Angela Merkel.

"Sie kommen, um Informationen zu finden"

YouTube verdient Geld mit der Propagierung von Verschwörungstheorien und Müllwissenschaft, dieser Vorwurf ist in den vergangenen Monaten in mehreren Medien erhoben worden. Das allein schon könnte man mindestens aus ethischer Perspektive verwerflich finden. Doch durch die Empfehlung dieser Videos verbreiten sich diese Ansichten auch in der Gesellschaft.

YouTube wurde ursprünglich als soziales Medium entwickelt, auf dem Hobbyfilmer ihre eigenen Videos für andere verfügbar machen können. Seit der Gründung hat sich der Charakter der Plattform aber massiv gewandelt. Heute sind die Filme auf YouTube professionell produziert, und 21 Prozent der amerikanischen Internetuser nutzen das Videoportal laut einer Studie des Pew Research Center als Nachrichtenquelle. Von den Jugendlichen unter 21 Jahren sind es sogar ein Drittel. "Die Nutzer besuchen YouTube nicht nur zur Unterhaltung. Sie kommen, um Informationen zu finden", sagte Google-Chef Sundar Pichai im Februar bei einer Telefonkonferenz zu den Quartalszahlen.

Nur sind diese Informationen häufig von zweifelhafter Qualität. YouTube muss sich nun, ähnlich wie Facebook in den vergangenen Jahren, vorwerfen lassen, dass es die Desinformation der Bevölkerung fördert. Auf der Konferenz der amerikanischen Wissenschaftlervereinigung AAAS im Februar in Washington stellte die Forscherin Asheley Landrum, Assistenzprofessorin für Wissenschaftskommunikation an der Texas Tech University, Ergebnisse einer kleinen Studie vor: Sie hatte auf einer Konferenz von Flat-Earth-Befürwortern Personen befragt, die die Ansicht vertreten, dass die Erde eine Scheibe sei. 29 davon erzählten, dass sie erst in den vergangenen zwei Jahren durch das Anschauen von YouTube-Videos zu dieser Überzeugung gekommen seien. Das Ergebnis dieser nicht repräsentativen Erhebung unterstützt, was Kritikerinnen und Kritiker schon länger besorgt: YouTubes Algorithmus zieht Nutzerinnen und Nutzer in ein Netz von Verschwörungstheorien. Und manche verfangen sich darin, sie finden nicht mehr hinaus.

Ein Beispiel dafür scheint das Thema Impfen zu sein: In elf US-Bundesstaaten hat es in diesem Jahr schon Masernfälle gegeben. In einer Anhörung des Handelsausschusses im US-Repräsentantenhaus machte dessen Vorsitzender, der Demokrat Frank Pallone, die Internetdienste ausdrücklich mitverantwortlich für die neue Epidemie: "Ich bin zutiefst besorgt, dass Eltern mit Desinformationskampagnen überflutet werden, wenn sie ins Netz gehen, um informierte Entscheidungen für die Gesundheit ihrer Kinder zu treffen."

Dass YouTube lange nichts gegen diese Kampagnen unternommen hat, dürfte auch mit dem Geschäftsmodell zusammenhängen. Genau wie Facebook ist die Videoplattform werbefinanziert. Heißt: Je mehr Filme die Nutzerinnen anschauen, desto mehr Werbung sehen sie und desto mehr Geld verdient YouTube damit. Deshalb ist es im Interesse des Unternehmens, die Zuschauer so lange wie möglich auf der Seite zu halten. Das allein ist noch nicht schlimm, ebenso wenig wie die Tatsache, dass der Algorithmus versucht, den Usern Inhalte anzubieten, die ihren Interessen entsprechen.

"Wer ist berechenbarer als ein Faschist?"

Doch die Mechanismen seien subtiler, sagte der KI-Forscher Stuart Russell von der University of California in Berkeley auf einer Podiumsdiskussion der Long Now Foundation in San Francisco. Statt nur bestehende Ansichten zu bestätigen, drängt der Algorithmus die Menschen zu immer extremeren Positionen. "Er macht dich vorhersagbarer, um dir dann Dinge zu präsentieren, von denen er weiß, dass du draufklicken wirst", sagte Russell. "Und wer ist berechenbarer als ein glühender Faschist oder Kommunist?" Man darf ergänzen: oder ein Verschwörungstheoretiker?

Es muss gar nicht die Absicht der Programmierer gewesen sein, die Nutzerinnen in immer tiefere Abgründe rutschen zu lassen. Das schafft ein recht simpler lernender Algorithmus durch Versuch und Irrtum ganz von alleine. Es sei aber ein Beispiel dafür, sagt Russell, wie Technologie nicht nur unsere bestehenden Bedürfnisse bediene, sondern uns manche Ideen überhaupt erst nahebringe und so die Gesellschaft verändere. "Dieser einfache Algorithmus hat möglicherweise die EU, die Nato und die westliche Demokratie zerstört – mit nur 50 Zeilen Computercode." Damit spielt Russell vor allem auf die mutmaßliche Beeinflussung der Wählerinnen und Wähler durch die Manipulation der sozialen Medien vor der Brexit-Abstimmung und der US-Präsidentschaftswahl an.

Nun gibt es überall im Internet Verschwörungstheorien und Desinformation. Auf YouTube sind jedoch ganz besondere Biotope entstanden, in denen diese Gewächse wuchern. Im Bereich der Verschwörungstheorien verbreiten Influencerinnen und Influencer hanebüchene Thesen, ohne sich mit Fakten oder der berechtigten Kritik daran auseinandersetzen zu müssen. So entstehen Desinformationsnetzwerke, in denen sich Menschen ihre Theorien gegenseitig bestätigen und sich in ihrem Irrglauben bestärken. Dagegen gibt es kaum Netzwerke von Menschen, die an die Mondlandung glauben, das Impfen für eine sinnvolle Vorbeugemaßnahme halten und dann auch noch mitreißende Filme darüber produzieren. Die historische oder wissenschaftliche Wahrheit ist nicht so erregend wie die Mär von bösen Verschwörerinnen und Verschwörern, sie eignet sich weniger zur Dramatisierung und Skandalisierung.

Ein Gegengewicht schaffen

Plattformen wie YouTube und Facebook gleichen daher aktuell Goethes Zauberlehrling mit ihren Versuchen, die schlimmsten Folgen einzudämmen, die sie der Gesellschaft beschert haben. Sie müssen meist per Hand die Millionen Postings und Filme durchkämmen, die täglich auf ihre Seiten gestellt werden. Das ist noch relativ einfach bei Inhalten, die klar gegen geltendes Recht verstoßen und etwa volksverhetzend sind – die kann man sperren. Ein anderer Fall sind harmlose Videos, die aber von anderen für ihre Zwecke missbraucht werden. So kommentierten offenbar pädophile Nutzer Filme von Kindern und empfahlen einander auch noch die Timecodes der ihrer Ansicht nach schlüpfrigsten Stellen. YouTube stellte kurzerhand die Kommentarfunktion bei vielen Videos mit Minderjährigen ab. Eine schnelle Reaktion, aber keine langfristige Lösung.

Aber wie geht man mit Inhalten um, die nicht verboten sind, sondern "nur" irreführend? Google selbst charakterisiert die Videos recht treffend in einem Dokument, das auf dem Firmenblog veröffentlicht wurde: "Es ist eine Sache, sich zu irren. Aber es ist etwas anderes, wenn man vorsätzlich Informationen verbreitet, von denen man weiß, dass sie falsch sind, in der Hoffnung, dass andere sie glauben, oder um Zwietracht in der Gesellschaft zu erzeugen." Nach eigenen Angaben hat das Unternehmen im Januar begonnen, "grenzwertige" Inhalte seltener weiterzuempfehlen. Und es bedient sich der gemeinnützigen Wikipedia, um zumindest ein Gegengewicht zu manchen Desinformationen zu geben. Wer etwa auf YouTube englischsprachige Videos über den Impfsstoff MMR sucht, der unter anderem vor Masern schützt, der findet in der Kommentarspalte einen Link zum einschlägigen Wikipedia-Artikel. Ähnliche Zusatzinfos gibt es zu Filmen, die den Klimawandel leugnen oder die Filme von der Mondlandung für eine Fälschung halten. Es ist zwar fraglich, ob die meisten Nutzer diese Informationen wahrnehmen, aber es ist ein Anfang.

Trotzdem bleiben die Videos weiter in der Suche auffindbar, auch können Menschen Kanäle, die solche Filme verbreiten, weiterhin abonnieren. Nicht alle Kritiker sind daher überzeugt, dass YouTube das Problem schnell in den Griff bekommen wird. Zu ihnen gehört Guilleaume Chaslot, ein ehemaliger YouTube-Programmierer. Chaslot hat die Website algotransparancy.org ins Netz gestellt, auf der er die Ergebnisse von YouTubes Empfehlungsalgorithmus protokolliert. Sein Programm durchsucht regelmäßig 1.000 populäre, zum größten Teil seriöse YouTube-Kanäle danach, welche Videos in der Randspalte empfohlen werden. Das Resultat stellt er täglich ins Netz, Interessierte können die Ergebnisse auch nach Stichwörtern durchsuchen.

Chaslot erkennt an, dass YouTube sich dem Problem zu widmen beginnt. Aber er glaubt, dass Selbstregulierung allein das Problem der wachsenden Desinformation nicht aus der Welt schaffen wird. Auch die Politik ist seiner Meinung nach gefordert. "Wenn man ein Gesetz schafft, das nach 1.000 Empfehlungen die Plattform mitverantwortlich für den Inhalt macht", sagte der Ex-YouTuber der New York Times, "dann wird das Problem garantiert sehr schnell gelöst."