"Wie geht es Ihnen?"

"Ich fühle mich in letzter Zeit schlecht."

"Können Sie sagen, was Ihren Zustand verschlechtert hat?"

"Ich weiß nicht ... Na ja, ich hatte einen Nervenzusammenbruch ..."

"Das tut mir leid."

"Was soll's ... Ich glaube, es liegt an mir ..."

"Würden Sie gerne daran glauben?"

"Sie denken, das stimmt nicht?"

"Keine leichte Frage."

"Ich sage Ihnen was: Mein Vater ist schuld!"

"Mag Ihr Vater Sie und umgekehrt?"

"Keine Ahnung ... Ist mir egal ..."

"Ärgern Sie sich manchmal über Ihren Vater?"

"Er akzeptiert mich nicht."

"Was, glauben Sie, denkt Ihr Vater über Sie?"

"Er hält mich für einen Versager."

"Was träumen Sie in letzter Zeit?"

"Träumen? ..."

"Erzählen Sie mir davon."

"Ich träume in letzter Zeit oft, dass ich stürze ..."

"Welche Personen erscheinen in Ihren Träumen?"

"Meine erste Freundin."

"Ihre Freundin?"

"Ja."

"Fahren Sie fort."

"Mein Vater mochte sie nicht ..."

"Verstehe."

"Ehrlich gesagt ... Ich habe meinen Vater erschossen!"

"So, haben Sie."

"Und ich habe die Leiche verschwinden lassen."

"So?"

"ICH HABE DIE LEICHE VERSCHWINDEN LASSEN!"

"Das sagten Sie bereits."

Es ist offensichtlich: Hier spricht ein routinierter Psychotherapeut mit seinem Patienten. Durch geschicktes Nachfragen und unterschwellige Andeutungen steuert er ihn in kürzester Zeit in den Kern seines Seelenproblems: der Vater als Über-Ich, als Instanz, die das Individuum mit seinen unerfüllbaren Ansprüchen überfordert und frustriert. Das läuft alles ab wie im Lehrbuch, lediglich die Reaktion des Therapeuten wirkt angesichts des Mordgeständnisses ein wenig abgeklärt. Aber auch diese Gelassenheit ist wohl nur ein Ausdruck großer Routine: Ihn, den Fachmann für gekränkte Seelen, kann nichts mehr schocken ...

Dieser Artikel stammt aus der ZEIT Nr. 2 vom 7.1.2016.

Ja, so scheint es zu sein – aber so ist es nicht. Der Patient auf der Couch ist die freie Adaption einer literarischen Figur (nämlich des Physikstudenten Frank Zweig aus meinem Roman Freigang), und der Psychiater, besser gesagt, die Psychiaterin ist Eliza – ein linguistisches Computerprogramm, das man im Internet aufrufen kann. Es lässt sich mit psychologischen und überhaupt Fragen aller Art füttern – und das durchaus mit Erfolg: Eliza weiß auf alles etwas zu erwidern. Doch was sie sagt, hat mit Verständnis oder gar Empathie nichts zu tun, sondern ergibt sich aus einem simplen Dialog-Algorithmus.

Eliza ist gewissermaßen die Mutter aller Chatbots. Erschaffen hat sie vor 50 Jahren der deutschamerikanische Informatiker Joseph Weizenbaum – ein Pionier auf dem Gebiet der Erforschung künstlicher Intelligenz. Er wollte mit Eliza zeigen, wie sich menschliche Sprache formalisieren und digital verarbeiten lässt, allerdings war ihm die Wirkung seiner eigenen Schöpfung schnell suspekt. Nicht wenige ahnungslose Testpersonen waren am Ende ihrer "Therapeutengespräche" nämlich fest davon überzeugt, sich per Tastatur tatsächlich mit einem sensiblen und verständnisvollen Doktor ausgetauscht zu haben: Sie fühlten sich verstanden und offenbarten dem vermeintlichen Arzt intimste Details ihres Seelenlebens.

In seinem Buch Die Macht der Computer und die Ohnmacht der Vernunft erklärte Weizenbaum sich das so: "Die meisten Menschen verstehen nicht das Geringste von Computern, und so können sie sich die intellektuellen Leistungen von Computern nur dadurch erklären, dass sie die einzige Analogie heranziehen, die ihnen zu Gebote steht, nämlich das Modell ihrer eigenen Denkfähigkeit."

Es schockierte Weizenbaum, dass sich menschliche Kommunikation mit einem aus heutiger Sicht geradezu lächerlich einfachen Programm simulieren ließ. Aber ganz so simpel war es dann doch nicht: Ohne den – durch die Versuchsanordnung bestärkten – Glauben an die Psychiater-Patienten-Beziehung ist der Gesprächsalgorithmus nämlich schnell ausgetrickst. Anhand einer Liste von Schlüsselbegriffen wie "Vater" oder "Mutter" generiert Eliza allgemeine Fragen und Redeermunterungen, die meist irgendwie passen. Allerdings würde das Programm auch auf den Satz "Da war der Wunsch Vater des Gedankens" mit "Erzählen Sie mir mehr über Ihren Vater" antworten. Und wenn Eliza in dem Gesagten kein Wort erkennt, reagiert sie lediglich mit allgemeinen Phrasen wie "Erzählen Sie weiter" oder "Das verstehe ich noch nicht".

Technologisch gesehen, liegen Welten zwischen 1966 und heute. Mittlerweile haben alle großen Handyanbieter ein Language User Interface in ihre Betriebssysteme integriert, sprechende Digitalassistenten, die auf mehr oder weniger klare Fragen mehr oder weniger schlüssige Antworten geben sollen. Sucht man ein italienisches Restaurant, sollten einem also Siri, S-Voice oder Google Now auf die Frage "Wo ist der nächste Italiener?" im Idealfall antworten: "In anderthalb Kilometern finden Sie auf der rechten Seite das Ristorante Toscana", und nicht "Franco Barresi, Goethestraße 3". Zuweilen klappt das auch – am ehesten in Standardsituationen, die bei der Programmierung von Assistenzsystemen vorausgesehen wurden.