Betrachtet man das Vergehen, das jetzt so viel Aufregung verursacht, nüchtern, besteht es in der Verbindung von genauer Kenntnis einer Person und personalisierter Adressierung einer Werbeanzeige. Beides sind völlig legitime Verfahren, auf die es im Werbegeschäft ankommt. Werden sie kriminell, wenn man sie in die Sphäre der Politik überträgt? Versucht aber nicht auch die Politik, ihre potenziellen Wähler genauer zu kennen, um besser auf sie eingehen zu können? Wo beginnt der Missbrauch der von den neuen Medien geschaffenen Werkzeuge für die psychometrische Analyse und personalisierte Kommunikation? Wenn man seine potenziellen Wähler ungefragt kontaktiert? Wenn man auf unlautere Weise zur Kenntnis ihrer politischen Haltung kam? Wenn man negative Werbung einsetzt, um der Konkurrentin zu schaden? Liegt der Verstoß darin, dass Politiker die neuesten technischen Mittel für das nutzen, was sie schon immer getan haben? Denn die individualisierte Adressierung auf der Basis psychometrischer Daten ist am Ende ja nichts anderes als ein methodisches Update traditioneller demografischer Verfahren.

Statt diesen für die Zukunft der Gesellschaft wichtigen Frage nachzugehen, konzentriert man sich auf eine Technikalität: Kam Cambridge Analytica illegal an die Daten der Facebook-Nutzer? Es ist eine möglicherweise justiziable, in jedem Falle aber symbolische Technikalität. Dass nämlich Facebooks Struktur ermöglicht hat, neben den Daten der freiwilligen Teilnehmer einer Umfrage auch die Daten ihrer Freunde abzugreifen, zeigt, wie verantwortungslos die Unternehmen mit den Daten ihrer Nutzer umgehen. Zuckerberg redet sich nun mit Facebooks Komplexität heraus, die schon mal dazu führen könne, dass Daten in unbefugte Hände geraten, und spricht ansonsten von Vertrauensbruch, den Cambridge Analytica begangen und Schritten, die Facebook sofort unternommen habe.

Es geht um das Geschäft

Wer das Gesetz der Gratisdienste kennt, ist kein bisschen erstaunt: Natürlich ist man selbst das Produkt, das verkauft wird, wenn die Sache (Fernsehen, Facebook, Apps) kostenlos ist. In einer solchen Situation kann man – ganz gleich, was Zuckerberg in der Öffentlichkeit verkündet – nicht erwarten, dass die eigenen Interessen gegen die der finanzstarken Kunden gewahrt werden.  

Gerade deswegen aber darf man, wenn man zum eigentlichen Problem vorstoßen will, Facebook und Cambridge Analytica nicht für schuldig befinden. Der Schuldspruch wäre ebenso eine Ablenkung vom Eigentlichen, ebenso wie die Entlassung des zynischen CEOs von Cambridge Analytica. Es geht um das System, und das heißt in diesem Fall Big Data, und es geht um das Geschäft, das damit zu machen ist. Facebook und Cambridge Analytica repräsentieren dieses System auf je eigene Weise als Datenproduktions- und Datenanalyseunternehmen. Es geht um die Kollateralschäden der Digitalisierung der Gesellschaft, die eine immense Datafizierung ihrer Bürgerinnen und Bürger bedeutet. Es geht um das Internet der Dinge als nächste Runde der Digitalisierung, die von vielen schon ungeduldig erwartet wird. Es geht um unsere eigene Kollaboration in diesem Prozess. Und es geht um Michal Kosinski. 

Der Doktorand des Psychometrics Centre der Cambridge University hatte die Methode der psychometrischen Persönlichkeitsanalyse wesentlich entwickelt, erkannte irgendwann, dass sie zur Manipulation von Menschen missbraucht werden könnte und versah seine Publikationen fortan mit dem Disclaimer: "could pose a threat to an individual’s well-being, freedom, or even life". Das schützte seine Erfindung bekanntlich nicht davor, später von Cambridge Analytica eingesetzt zu werden, um Trump zum Präsidenten zu machen.  

Kosinskis Disclaimer ist es, worum es in der aktuellen Debatte eigentlich geht. Es geht um die Naivität (oder Heuchelei), die er symbolisiert. Kann jemand auch nur für eine Minute glauben, ein Analyseinstrument, das die Erkundung der unausgesprochenen Gedanken und Gefühle von Menschen ermöglicht, werde nicht irgendwann auch gegen deren Interesse eingesetzt? Kann man wirklich übersehen, dass in dieser Welt eine solche Warnung auf viele wie eine Einladung wirkt? Akteure wie Cambridge Analytica sind nichts ohne Erfinder wie Kosinski. Aber auch Kosinski ist nur das Symptom eines größeren Problems: des Missverhältnisses von technischer Entwicklung und gesellschaftlicher Verantwortung. Wenn die Gesellschaft von der aktuellen Geschichte um Facebook und Cambridge Analytica profitieren will, muss sie zu diesem Problem vorstoßen. Sie muss aufs ganze Silicon Valley schauen statt nur auf Facebooks Hauptquartier. Sie muss auf alle Silicon Valleys der Welt schauen und fragen, an welchen Entwicklungen dort gearbeitet wird, wie diese die Struktur der Gesellschaft verändern und ob man das will.

Verfügbares Wissen nicht nutzen

Die Gesellschaft muss die Technikfolgenabschätzung wieder über das Realexperiment stellen, in das sie die IT-Unternehmen verwickelt haben. Gewiss, das ist im Konkreten schwer umzusetzen, und oft sind (das zeigte die Kritik an Facebooks Like-Button durch ehemalige Facebook-Manager Ende 2017) die negativen Folgen einer scheinbar völlig unschuldigen Erfindung erst Jahre später erkennbar. Weniger Fantasie benötigt man im Fall der Psychometrie oder ihres visuellen Pendants, der Physiognomie, an der zum Beispiel das Start-up Faception arbeitet, mit dem Ziel, bald den Charakter eines Menschen an seinen Gesichtszügen ablesen zu können.

In jedem Falle weist die Losung "Digital first, Bedenken second", der sich inzwischen Teile der Politik und Wirtschaft verpflichtet haben, in die falsche Richtung. Die Gesellschaft muss bedenken, wohin es langfristig führt, wenn immer mehr Daten ihrer Bürger akkumuliert und analysiert werden können. Sie muss jetzt darüber sprechen, wie sie morgen das Recht auf informationelle Selbstbestimmung schützen will, wenn niemand mehr Einspruch gegen intelligente Stromzähler oder die Blackbox im Auto erheben darf, weil die erhobenen Daten dem Umweltschutz und der Verkehrsregulierung zugutekommen. Die Gesellschaft muss sich im Klaren sein, dass es sehr schwer ist, Wissen, das verfügbar ist, nicht zu nutzen. Cambridge Analytica hat die Daten, die Facebook akkumuliert, zur Produktion von Wissen genutzt, an dem seine Kunden interessiert waren.

Eine ganz normale Handlungskette, die seit Jahrtausenden menschliche Aktionen bestimmt und dies auch in Zukunft tun wird. Die Ungereimtheiten dieser Handlungskette an all ihren Enden dürfen nicht von der Frage ablenken, die aus der aktuellen Aufregung über diese Ungereimtheiten mitzunehmen ist: Wann schlägt der quantitative Unterschied (mehr verfügbare Daten, schneller operierende Algorithmen) in eine neue Qualität um, die das Zusammenleben der Gesellschaft gefährdet?