Daten aus 50 Millionen Facebook-Nutzerprofilen soll die Firma Cambridge Analytica analysiert haben. Während die Nutzer sich fragen, wie sicher ihre persönlichen Daten noch bei Facebook sind, und die Aktie des Konzerns kräftig an Börsenwert verliert, geht es im neuesten Skandal auch um eine noch viel brisantere Frage: War die Manipulation der Wähler über Facebook der entscheidende Faktor bei der Wahl Donald Trumps zum US-Präsidenten? Hat Cambridge Analytica es wirklich geschafft, Wähler zu manipulieren? Und wie manipulierbar sind wir in unseren politischen Ansichten? Erstaunlich wenig, glaubt der Philosoph Philipp Hübl. Unsere Ansichten seien viel stabiler, als viele gern behaupten.

Philipp Hübl ist Juniorprofessor für Theoretische Philosophie an der Uni Stuttgart. In seinem Buch "Der Untergrund des Denkens. Eine Philosophie des Unbewussten" kritisiert er die These von der Macht des Unbewussten. © Juliane Marie Schreiber

Alexander Nix, der kürzlich gefeuerte Chef der Datenanalysefirma Cambridge Analytica, prahlte vor einem Undercover-Reporter damit, dass er den US-Wahlkampf 2016 entschieden habe. Seine Firma habe unentschiedene Wähler so gezielt manipuliert, dass sie für Donald Trump gestimmt hätten. Damit macht Nix nicht nur Werbung für sein digitales Werbe-Instrument. Er greift ein Menschenbild auf, das auch Psychologen und Neurowissenschaftler in den letzten Jahrzehnten verbreitet haben: die These vom manipulierbaren Individuum, das nicht aufgrund bewusster Entscheidungen handelt, sondern von unbewussten Neigungen gesteuert ist. Vom Selbstwahn ist die Rede und von der Konstruktion des Ich. Auch der Hype um das Neuromarketing und die Behauptung, die Neurowissenschaft habe die Willensfreiheit widerlegt, gehören dazu.

Eine vermeintlich einfache Erklärung für erschreckende Ereignisse

Das Begründungsmuster ist dankbar. Es bietet einfache Erklärungen für überraschende und erschreckende Ereignisse wie die Wahl Donald Trumps zum US-Präsidenten. Letztlich verschiebt es so die Verantwortung: Nicht die Kampagne der Demokraten scheiterte, nicht die Anhänger der Republikaner in den USA sahen bewusst über Trumps sexistische und rassistische Äußerungen hinweg. Nein, am Ende war es eine große Täuschung, der die Wähler aufsaßen. Aber stimmt das? Bisher ist überhaupt nicht belegt, ob Cambridge Analytica wirklich Einfluss auf die Wahl nehmen konnte. Die Wissenschaft hinter der Manipulation ist weit weniger eindeutig als angenommen. Und Teile der Argumentation der Firma widersprechen sich gar selbst.

Doch zunächst zu dem, was passiert ist: Alles begann mit einer Studie, die mit Wahlkampfbeeinflussung nichts zu tun hatte. Die Cambridge-Psychologen Michal Kosinski und David Stillwell untersuchten 58.000 Facebook-User mit einer App, die gleichzeitig ein Persönlichkeitstest ist und Informationen über die Facebook-Likes abfragt (PNAS: Kosinski, Stillwell et al., 2013, .pdf). Damit erstellten die Forscher ein Datenprofil der Teilnehmer und stießen auf teils kuriose Korrelationen: Wer zum Beispiel spiralförmige Pommes (curly fries) mag, ist eher intelligent, wer Harley-Davidson likt, eher nicht. Wer sich als Mann für Kosmetikprodukte interessiert, ist eher homosexuell, wer der Rapformation Wu-Tang Clan folgt, eher heterosexuell. Einige dieser Vorhersagen sind wenig überraschend, andere hingegen schon: Was hat die Pommes-frites-Form schon mit logischem Denken zu tun?

Konservative sind verlässlich, Liberale offen gegenüber Neuem

Auch das Wahlverhalten konnten die Forscher anhand von Likes vorhersehen. Solche Korrelationen basieren auf gut gesicherten Vorarbeiten über fünf Persönlichkeitsmerkmale, die beim Menschen über das ganze Leben hinweg relativ konstant stark oder schwach ausgebildet sind: Offenheit, Verlässlichkeit, Extrovertiertheit, Verträglichkeit und emotionale Instabilität, den englischen Anfangsbuchstaben nach auch Ocean-Merkmale genannt. Studien zeigen, dass Persönlichkeitsmerkmale und Wahlverhalten korrelieren. So verglich die amerikanische Sozialpsychologin Dana Carney zwei politische Typen Mensch, den konservativ-rechten Typ (conservatives) und den progressiven (liberals) (Political Psychology: Carney et al., 2008). Dabei zeigt sich etwas, was schon der Philosoph Theodor W. Adorno vermutet hat: Ein hoher Wert bei "Offenheit" ist ein guter Indikator für die politische Orientierung. Menschen, die der Welt gegenüber offen sind, wollen neue Speisen, Menschen und Länder kennenlernen. Wer offen oder neophil ist, wählt eher progressiv, also linksliberal. Bei Konservativen findet man diese Neophilie hingegen selten. Sie sind eher risikoscheu und bleiben, wie der Name schon sagt, lieber bei dem, was sie schon kennen (Psychological Bulletin: Jost et al., 2003). Konservative punkteten dafür eher bei der Dimension "Verlässlichkeit". Wer verlässlich ist, gilt als systematisch, ordentlich und überlegt.

Wie politische Neigungen mit Persönlichkeitsmerkmalen und diese wiederum mit Likes korrelieren, zeigen Kosinski und Stillwell mit einem Beispiel: Wer die Marke Hello Kitty mag, hat einen hohen Wert bei Offenheit und einen niedrigen bei Verlässlichkeit und wählt mit hoher Wahrscheinlichkeit die Demokraten.

Anhand von Likes kann man die Politik auslesen

So kann man anhand der Likes die Politik auslesen. Und von hier scheint der Schritt zur Manipulation nicht mehr weit. Cambridge Analytica versuchte deshalb an die Daten, die Stillwell und Kosinski gesammelt hatten, heranzukommen. Die Forscher lehnten ab, doch ein Kollege der beiden von der Uni Cambridge, Aleksandr Kogan, beschaffte sie schließlich: Dafür nutzte er eine ähnliche App wie Stillwell und Kosinski, die die Persönlichkeitsmerkmale der Nutzer erfragte und gleichzeitig ihre Facebook-Profile und die ihrer Freunde auslas. Dass die Daten dann für den Wahlkampf verwendet wurden – zuerst für Ted Cruz, dann für Trump –, erfuhren die Teilnehmer nicht. Für die Wahlkampfaktion wurden angeblich eigens Wechselwähler identifiziert und politische Werbung auf sie und ihr Persönlichkeitsprofil zugeschnitten und so die Wahl entschieden.

So weit zumindest die Darstellung von Cambridge Analytica. Die Wahrheit aber könnte ganz anders aussehen. Bis heute ist überhaupt nicht bewiesen, wie groß der Einfluss dieser Kampagne war. Denn um überhaupt einen Effekt feststellen zu können, hätte es, wie bei wissenschaftlichen Versuchen üblich, eine Kontrollgruppe geben müssen. Selbst wenn alle Facebook-User, die Trump-Werbung erhielten, am Ende auch Trump gewählt haben, ist nicht gesagt, dass sie sich wegen dieser Werbung so entschieden haben. Vielleicht wollten sie ohnehin die Republikaner wählen oder waren durch den Freundeskreis beeinflusst. 

Die Manipulationsthese passt überhaupt nicht zu der Forschung, auf der sie beruht

Noch viel wichtiger aber: Die Manipulationsthese widerspricht der Forschung, auf der sie beruht. Die sagt nämlich, dass sowohl Persönlichkeitsmerkmale als auch das Wahlverhalten relativ konstant sind. Natürlich radikalisieren sich Menschen oder wechseln ihre Parteivorlieben. Das aber dauert lange und der Freundes- und Familienkreis muss mitmachen. Auch wenn sich Wählerbewegungen durch digitale Medien verstärken können, gilt: Menschen sind gerade nicht beliebig manipulierbar, sondern erstaunlich robust. Politische Einstellungen, die oft über Jahrzehnte gewachsen sind, verändern sich nicht von einem Tag auf den anderen.

Gern wird, wenn es um gezielte Manipulation geht, auf Konsumwünsche verwiesen. So zeigte eine Studie, dass man Facebook-Profile für gezielte Modewerbung nutzen kann. Als Extrovertierte flamboyante Kleidervorschläge sahen und Schüchterne Angebote für klassisch-dezente Kollektionen, führte das tatsächlich zu mehr Konsum als bei unspezifischer Onlinewerbung (PNAS: Matz et al., 2017, .pdf).

Niemand kann aus Jens Spahn einen Linken machen, indem er ihm Artikel der "taz" unterjubelt.
Philipp Hübl

Wer allerdings meint, man könnte diese Studien auf die Stimmabgabe bei einer Präsidentschaftswahl übertragen, der irrt, denn beim Shoppen verhalten wir uns anders als in der Wahlkabine. Darauf hat die Philosophin Edna Ullmann-Margalit schon in den Siebzigerjahren hingewiesen, indem sie zwischen Auswählen (picking) und Entscheiden (choosing) unterschied (Social Research: Ullman-Margalit & Morgenbesser, 1977). Beispiele für picking sind der Griff nach dem Apfel im Supermarkt oder der Klick auf die Sneakers beim Onlineshopping. Hier wählen wir meist zügig ohne große Abwägung und sind, sofern wir nicht aufpassen, durch die Umstände beeinflussbar. Doch sobald wir ein Auto oder ein Haus kaufen, wechseln wir zu choosing: Wir wägen überlegt ab. Und die Stimmabgabe der Präsidentschaftswahl ist ein Fall von Entscheiden (Royal Institute of Philosophy Supplement: Ullmann-Magarit, 2006). Anders gesagt: Es ist leicht, Menschen zu Impulskäufen zu verführen, doch schwer, sie für eine Partei zu gewinnen. Niemand kann aus Jens Spahn einen Linken machen, indem er ihm Artikel der taz unterjubelt. Und niemand macht aus Sahra Wagenknecht eine Verfechterin des Neoliberalismus, indem er ihr den marktliberalen Teil der FAZ auf den Schreibtisch legt. 

Grundsätzlich ist Einflussnahme natürlich möglich: Auch wenn die Gruppe der unentschiedenen Wechselwähler klein ist, kann in einem Zweiparteiensystem eine Verschiebung von einem Prozent schon über Sieg oder Niederlage entscheiden. Darauf setzen Politiker, schon so lange es Demokratien gibt. Doch ob Facebook bei der US-Wahl Helfershelfer war, ist einfach nicht belegt.

Bisher ist die Angst vor der großen Facebook-Manipulation also unbegründet. Aber sie wird handfeste Folgen für die Forschung haben, besonders für die gerade aufblühenden digitalen Sozialwissenschaften (computational social scienes). Klassische sozialpsychologische Versuche sind nämlich bisher nur Stückwerk, sie sind finanziell und zeitlich aufwendig und erforschen Menschen nicht in ihrer alltäglichen Umgebung, sondern im Labor (Science: Lazer et al., 2009, .pdf). All diese Hindernisse umgeht die Forschung, wenn sie auf Daten aus sozialen Netzen zugreifen kann. Wenn Facebook den Zugriff auf diese Daten nun weiter erschwert, verpassen wir die große Chance, die menschliche Natur besser zu verstehen.