Sie manipulieren, wir kollaborieren



Wie sich die Bilder widersprechen: Zuckerberg als "Person des Jahres" auf dem Cover des Time Magazine im Dezember 2010, Facebook als "Bedrohung für die Demokratie" auf dem Cover des Economist im November 2017, Zuckerberg mit Prellungen und Blutspuren im Gesicht auf dem Cover der Wired im März 2018. Der Grund war jeweils derselbe: Zuckerberg und Facebook verändern, wie Menschen miteinander umgehen und was sie übereinander wissen. Gewandelt hat sich allerdings die Einschätzung dieser Veränderung. Man sah genauer hin und ist nun irritiert: Vermessung und Manipulierbarkeit der Facebook-Nutzer, Hassmeldungen, Filterblasen und Beihilfe zu Fake News und Narzissmus.

Es gibt heute wenig, was man nicht schon 2010 hätte wissen können. Dass Facebook die Daten seiner Nutzerinnen und Nutzer sammelt, auswertet und verkauft, war allen klar, die sich dafür interessierten. Dass man aus den Likes, die jemand vergibt, auf dessen Vorlieben schließen kann, lag auf der Hand, ebenso dass sich ein solches Wissen für eigene Interessen ausnutzen lässt. Im Grunde wussten alle Bescheid. Und dennoch machten alle mit. Was ist jetzt anders?

Zum einen kann Facebook nicht mehr vom Ruf des demokratiefreundlichen Mediums zehren. Vorbei die Zeiten, da man Facebook pries, den sogenannten Arabischen Frühling ermöglicht zu haben. Vorbei die Zeit, da man es zum Organisationsort und Sprachrohr der Unterdrückten und Beleidigten stilisierte. Längst tummeln sich Vertreter aller möglichen ideologischen Couleur auf Facebook, einschließlich Ultrakonservative, Rechtsnationalisten, Identitäre und Misanthropen. Das sollte eigentlich niemanden erstaunen. Facebook ist für alle offen. 

Die Staatsmacht fühlt sich herausgefordert

Enttäuschend ist die neue Vielfalt trotzdem, zumal wenn man vorher dem Glauben anhing, eine fortschrittliche Technologie könne nur den Freunden des gesellschaftlichen Fortschritts dienen. Zuckerberg selbst hat für diesen Mythos viel getan mit seinem Mantra von Facebooks Mission. Den Groll der Frustrierten hat er verdient.     

Zum anderen bekommt Facebook die Reste des Kalten Krieges zu spüren, wenn es verdächtigt wird, dem Erzfeind Russland geholfen zu haben, den Präsidenten der USA zu bestimmen. Die Staatsmacht fühlt sich herausgefordert und mischt sich in das ein, was sie zuvor als alternative Jugendkultur oder ein interessantes Geschäftsmodell, in jedem Falle aber nicht als ihr Business betrachtete. Kaum jemand im US-amerikanischen Kongress hatte bisher etwas dagegen, dass Facebook die Aufmerksamkeit und die Daten seiner Nutzer an seine Kunden verkauft und im Interesse des Geschäfts seine "Community" in die Feedbackschleife der Likes und Shares lockt. Wenn für politische Werbung in Rubel bezahlt wird, hört der Spaß jedoch auf, den das neoliberale Wirtschaftsmodell den Unternehmen beim Reichwerden ansonsten zubilligt. Dann bestellt der Kongress die Kapitalisten ohne Grenzen zu einer peinlichen Befragung. 

"Sie haben auf Ihrer Seite ein enormes Problem. Und die USA werden das erste Land sein, das es Ihnen sagt. Andere werden es uns gleichtun. (…) Sie haben diese Plattformen erfunden, und jetzt werden sie missbraucht. Sie werden dagegen etwas tun müssen. Sonst tun wir es." So kommentierte am 31. Oktober 2017 die Senatorin Dianne Feinstein vor Vertretern von Facebook, Twitter und Google die Umtriebe feindlicher Kräfte auf sozialen Netzwerken. Sie tat es verärgert, drohend und zugleich ratlos. Denn wer das Problemgeflecht von Fake News, Hassreden, Filterblasen, Datenschutz und Manipulation weiterdenkt, ahnt, dass hier die Gesellschaft insgesamt gefordert ist, sich politisch und mental auf den Stand ihrer Technologien zu bringen. Die Vergehen der vorgeladenen IT-Unternehmen sind nur die Symptome eines viel größeren Problems, das niemand, der Kongress inbegriffen, wirklich angehen will. 

Die Löschung des eigenen Facebook-Accounts, die nun unter #deletefacebook im Trend liegt, ist eine große Geste, die davon ablenken könnte, zum Kern des Problems vorzustoßen. Wie auch immer man zu den Prügeln, die Zuckerberg nun einstecken muss, steht, man muss sich im Klaren darüber sein, dass es hier nicht nur um Facebook geht. Es geht um das an Facebook, was über das soziale Netzwerk hinausweist und typisch für unsere Zeit ist.

Zunächst einmal um Facebooks Funktion der Dark Posts: auf den Empfänger abgestimmte Botschaften, die nur dieser in seinem Newsfeed sieht. Es war dieses Feature, das Cambridge Analytica erlaubte, für seinen Auftraggeber Trump gezielt unentschlossenen afroamerikanischen Wählern das Video einer Rede von Hillary Clinton aus dem Jahr 1996 zu schicken, in der sie sich abschätzig über afroamerikanische Straftäter äußert. Warum redet jeder über die erschlichenen Datensätze der 50 Millionen Facebook-Nutzer und niemand über die jedem Kunden von Facebook zur Verfügung stehende Kommunikationsform Dark Post, ohne die jene Datensätze ziemlich wertlos wären?

Natürlich ist man selbst das Produkt

Betrachtet man das Vergehen, das jetzt so viel Aufregung verursacht, nüchtern, besteht es in der Verbindung von genauer Kenntnis einer Person und personalisierter Adressierung einer Werbeanzeige. Beides sind völlig legitime Verfahren, auf die es im Werbegeschäft ankommt. Werden sie kriminell, wenn man sie in die Sphäre der Politik überträgt? Versucht aber nicht auch die Politik, ihre potenziellen Wähler genauer zu kennen, um besser auf sie eingehen zu können? Wo beginnt der Missbrauch der von den neuen Medien geschaffenen Werkzeuge für die psychometrische Analyse und personalisierte Kommunikation? Wenn man seine potenziellen Wähler ungefragt kontaktiert? Wenn man auf unlautere Weise zur Kenntnis ihrer politischen Haltung kam? Wenn man negative Werbung einsetzt, um der Konkurrentin zu schaden? Liegt der Verstoß darin, dass Politiker die neuesten technischen Mittel für das nutzen, was sie schon immer getan haben? Denn die individualisierte Adressierung auf der Basis psychometrischer Daten ist am Ende ja nichts anderes als ein methodisches Update traditioneller demografischer Verfahren.

Statt diesen für die Zukunft der Gesellschaft wichtigen Frage nachzugehen, konzentriert man sich auf eine Technikalität: Kam Cambridge Analytica illegal an die Daten der Facebook-Nutzer? Es ist eine möglicherweise justiziable, in jedem Falle aber symbolische Technikalität. Dass nämlich Facebooks Struktur ermöglicht hat, neben den Daten der freiwilligen Teilnehmer einer Umfrage auch die Daten ihrer Freunde abzugreifen, zeigt, wie verantwortungslos die Unternehmen mit den Daten ihrer Nutzer umgehen. Zuckerberg redet sich nun mit Facebooks Komplexität heraus, die schon mal dazu führen könne, dass Daten in unbefugte Hände geraten, und spricht ansonsten von Vertrauensbruch, den Cambridge Analytica begangen und Schritten, die Facebook sofort unternommen habe.

Es geht um das Geschäft

Wer das Gesetz der Gratisdienste kennt, ist kein bisschen erstaunt: Natürlich ist man selbst das Produkt, das verkauft wird, wenn die Sache (Fernsehen, Facebook, Apps) kostenlos ist. In einer solchen Situation kann man – ganz gleich, was Zuckerberg in der Öffentlichkeit verkündet – nicht erwarten, dass die eigenen Interessen gegen die der finanzstarken Kunden gewahrt werden.  

Gerade deswegen aber darf man, wenn man zum eigentlichen Problem vorstoßen will, Facebook und Cambridge Analytica nicht für schuldig befinden. Der Schuldspruch wäre ebenso eine Ablenkung vom Eigentlichen, ebenso wie die Entlassung des zynischen CEOs von Cambridge Analytica. Es geht um das System, und das heißt in diesem Fall Big Data, und es geht um das Geschäft, das damit zu machen ist. Facebook und Cambridge Analytica repräsentieren dieses System auf je eigene Weise als Datenproduktions- und Datenanalyseunternehmen. Es geht um die Kollateralschäden der Digitalisierung der Gesellschaft, die eine immense Datafizierung ihrer Bürgerinnen und Bürger bedeutet. Es geht um das Internet der Dinge als nächste Runde der Digitalisierung, die von vielen schon ungeduldig erwartet wird. Es geht um unsere eigene Kollaboration in diesem Prozess. Und es geht um Michal Kosinski. 

Der Doktorand des Psychometrics Centre der Cambridge University hatte die Methode der psychometrischen Persönlichkeitsanalyse wesentlich entwickelt, erkannte irgendwann, dass sie zur Manipulation von Menschen missbraucht werden könnte und versah seine Publikationen fortan mit dem Disclaimer: "could pose a threat to an individual’s well-being, freedom, or even life". Das schützte seine Erfindung bekanntlich nicht davor, später von Cambridge Analytica eingesetzt zu werden, um Trump zum Präsidenten zu machen.  

Kosinskis Disclaimer ist es, worum es in der aktuellen Debatte eigentlich geht. Es geht um die Naivität (oder Heuchelei), die er symbolisiert. Kann jemand auch nur für eine Minute glauben, ein Analyseinstrument, das die Erkundung der unausgesprochenen Gedanken und Gefühle von Menschen ermöglicht, werde nicht irgendwann auch gegen deren Interesse eingesetzt? Kann man wirklich übersehen, dass in dieser Welt eine solche Warnung auf viele wie eine Einladung wirkt? Akteure wie Cambridge Analytica sind nichts ohne Erfinder wie Kosinski. Aber auch Kosinski ist nur das Symptom eines größeren Problems: des Missverhältnisses von technischer Entwicklung und gesellschaftlicher Verantwortung. Wenn die Gesellschaft von der aktuellen Geschichte um Facebook und Cambridge Analytica profitieren will, muss sie zu diesem Problem vorstoßen. Sie muss aufs ganze Silicon Valley schauen statt nur auf Facebooks Hauptquartier. Sie muss auf alle Silicon Valleys der Welt schauen und fragen, an welchen Entwicklungen dort gearbeitet wird, wie diese die Struktur der Gesellschaft verändern und ob man das will.

Verfügbares Wissen nicht nutzen

Die Gesellschaft muss die Technikfolgenabschätzung wieder über das Realexperiment stellen, in das sie die IT-Unternehmen verwickelt haben. Gewiss, das ist im Konkreten schwer umzusetzen, und oft sind (das zeigte die Kritik an Facebooks Like-Button durch ehemalige Facebook-Manager Ende 2017) die negativen Folgen einer scheinbar völlig unschuldigen Erfindung erst Jahre später erkennbar. Weniger Fantasie benötigt man im Fall der Psychometrie oder ihres visuellen Pendants, der Physiognomie, an der zum Beispiel das Start-up Faception arbeitet, mit dem Ziel, bald den Charakter eines Menschen an seinen Gesichtszügen ablesen zu können.

In jedem Falle weist die Losung "Digital first, Bedenken second", der sich inzwischen Teile der Politik und Wirtschaft verpflichtet haben, in die falsche Richtung. Die Gesellschaft muss bedenken, wohin es langfristig führt, wenn immer mehr Daten ihrer Bürger akkumuliert und analysiert werden können. Sie muss jetzt darüber sprechen, wie sie morgen das Recht auf informationelle Selbstbestimmung schützen will, wenn niemand mehr Einspruch gegen intelligente Stromzähler oder die Blackbox im Auto erheben darf, weil die erhobenen Daten dem Umweltschutz und der Verkehrsregulierung zugutekommen. Die Gesellschaft muss sich im Klaren sein, dass es sehr schwer ist, Wissen, das verfügbar ist, nicht zu nutzen. Cambridge Analytica hat die Daten, die Facebook akkumuliert, zur Produktion von Wissen genutzt, an dem seine Kunden interessiert waren.

Eine ganz normale Handlungskette, die seit Jahrtausenden menschliche Aktionen bestimmt und dies auch in Zukunft tun wird. Die Ungereimtheiten dieser Handlungskette an all ihren Enden dürfen nicht von der Frage ablenken, die aus der aktuellen Aufregung über diese Ungereimtheiten mitzunehmen ist: Wann schlägt der quantitative Unterschied (mehr verfügbare Daten, schneller operierende Algorithmen) in eine neue Qualität um, die das Zusammenleben der Gesellschaft gefährdet?