Im Vorwahlkampf der Republikaner gab es eine kuriose Szene: Innerhalb weniger Minuten wiederholte Präsidentschaftsbewerber Marco Rubio dreimal dieselben Sätze, als hätte jemand auf die Wiederholungstaste gedrückt. Noch 1975 entlarvte im Film Die Frauen von Stepford der mechanisch wiederholte Satz "Ich dachte, wir wären Freunde" eine Frau als Roboter. Und heute, im Wahlkampf? Wer redete da? Marco Rubio? Seine Berater? Eine Maschine? Ein Hybrid? Gepaart mit seiner steifen Mimik, wirkten Rubios Sätze wie das Skript eines Automaten.

Dass hier ein grundsätzliches Problem vorliegt, zeigten der Rechtswissenschaftler Brett Frischmann und der Philosoph Evan Selinger in einem Beitrag für den Guardian. Sie stellten die These auf, der Turing-Test müsse heute umgekehrt gedacht werden: Die Frage sei nicht mehr, ob Maschinen menschenähnlich würden, sondern ob der Mensch maschinenähnlich, das heißt programmierbar werde. Alan Turing, der britische Mathematiker und Informatiker, entwickelte 1950 ein Verfahren, um zu beweisen, dass künstliche Intelligenz dem Menschen ebenbürtig sein kann. Ein menschlicher Fragesteller sollte per Tastatur und Bildschirm mit einem Computerprogramm und einem Menschen kommunizieren und herausfinden, welcher Gesprächspartner die Maschine ist. Schafft er das nicht, hat die Maschine den Turing-Test bestanden.

Will man wie Selinger und Frischmann den Test unter umgekehrten Vorzeichen durchführen, muss man zuerst definieren, was eigentlich menschlich ist. In Studien, die sie in ihrem im kommenden Jahr erscheinenden Buch Being Human in the 21st Century bündeln, nennen Selinger und Frischmann Common Sense, rationales und irrationales Denken, freien Willen und Autonomie als Eigenschaften, die den Menschen von Maschinen unterscheiden. Aber die Wissenschaftler beobachten auch, dass wir uns in einer datengetriebenen Umgebung immer mehr wie Maschinen verhalten. Millionen Menschen klicken nach Reiz-Reaktions-Schema auf den Button "Ja, ich stimme zu", ohne die Geschäftsbedingungen gelesen zu haben, oder jagen wie ferngesteuert virtuelle Monster.

Dieser Artikel stammt aus der ZEIT Nr. 35 vom 18.8.2016.

In Amazons Logistikzentren nennt man die Angestellten bereits "Amabots", denn sie arbeiten bestimmte Skripte ab. Roboter gelten als besonders effizient, sie sind billig, streiken nicht, werden nicht müde. Das Start-up X.ai, das einen virtuellen Büroassistenten entwickelt hat, hält seine menschlichen Mitarbeiter an, roboterhafte Antworten zu schreiben, um den Eindruck der Kunden zu festigen, dass am anderen Ende der Leitung ein Bot sitze. Auch andere Shopping-Assistenten geben vor, Roboter zu sein, die vorspiegeln, Menschen zu sein. Sie reagieren auf eine irre Erwartungshaltung: Einerseits soll ein Bot menschliche Intelligenz imitieren. Andererseits müssen die Entwickler künstliche Intelligenz simulieren, um die Unzulänglichkeit menschengemachter Technik zu camouflieren. Ein Verwirrspiel. Was die Maschine und was ein Mensch tut, erschließt sich dem Außenstehenden nicht.

Der New York Times-Reporter David Segal berichtete 2014, er habe am Flughafen in Rom einen American-Express-Automaten aufgesucht und sich in einem Online-Chat über hohe Wechselgebühren beschwert. Das Gespräch sei ihm merkwürdig vorgekommen. Segal war überzeugt, es auf der anderen Seite der Chatleitung mit einem Roboter zu tun zu haben. Die Konversation erweckte den Eindruck, als greife ein Algorithmus Schlüsselwörter wie exchange rate auf und gebe standardisierte Antworten, à la "Das können wir nicht kommentieren". Es stellte sich aber heraus, dass Segal einen Sachbearbeiter, dessen Muttersprache nicht Englisch war, für einen Computer hielt. Womöglich handelte es sich um eine Person, die mechanisch von einem Skript ablas, das Anweisungen gab wie: Fragt der Kunde das, antwortete jenes.

So ähnlich funktioniert die E-Mail-App Crystal, die zu wissen glaubt, welche Wirkung eine Nachricht erzielt. Crystal ist eine Erweiterung für soziale Netzwerke, die mittels Big-Data-Analyse Ratschläge für Konversationen erteilt. Die App sagt dem Nutzer, welche Stichwörter er verwenden soll, welche Begriffe er vermeiden soll und wie lang seine E-Mails sein sollen. Unter der Rubrik "When speaking to X" steht in der Crystal-erweiterten Version von Pinterest oder LinkedIn etwa: "Nutze blumige Beschreibungen. Langweile sie nicht mit Dingen, die sie schon gehört hat. Geh auf die Zukunft ein." Unter "When working with X" heißt es: "Erkenne seine Erfolge mündlich an. Triff Verabredungen für ein Essen oder einen Drink. Vermeide konstruktive Kritik. Sei nicht frustriert, wenn er ein paar Minuten zu spät kommt." Während der Mensch also heute Maschinen Gefühle einprogrammiert, entwickelt er sich selbst zum Automaten, der Gefühle wie Maschinencodes oder Emojis artikuliert. Für jede Form der Interaktion werden ihm Handlungsanweisungen erteilt, die einer deterministischen Logik gehorchen.

So können wir uns der Fähigkeit entäußern, unsere Gesprächspartner einzuschätzen, und unser Urteilsvermögen an einen Algorithmus outsourcen. Den Plot für das menschliche Zusammenleben schreibt dann die Maschine. Während man mit Browser-Erweiterungen wie Crystal die "perfekte E-Mail" schreiben lernt, wie das Technikmagazin Wired ankündigte, wird allerdings immer fraglicher, ob deren Empfänger auch wirklich ein Mensch ist und nicht ein Roboter die menschlich optimierte Mail doch am Ende missversteht.