Der Flirt mit dem charmanten Unbekannten in Australien läuft via Computer. Plötzlich fährt es mir durch den Kopf: Woher weiß ich eigentlich, dass der Gesprächspartner kein Chatbot ist, wie chat von Plauderstündchen und bot von robot? Aber Chat-erfahrene Freunde drehen die Augen zur Decke: Mann, das merkt man doch. Das spürt man!

Mit dem Vertrauen der Jugend in diese Art Produkte der Künstliche-Intelligenz-Forschung ist es wohl nicht weit her. Das spürt man.

Alan Turing hatte da anderes vorausgesehen: In ungefähr 50 Jahren, sagte er vor genau 50 Jahren, hätte ich nur noch eine Chance von 70 Prozent, meinen charmanten Unbekannten eindeutig als künstlich zu identifizieren. In drei von zehn Fällen säße ich also beim Blind Date unwissentlich einem Rechner gegenüber.

Turing dachte natürlich nicht an Fernflirts. Er dachte an Intelligenz, und wie man sie testen kann. Und er dachte an Täuschung: Ein Programm, das einen Menschen fünf Minuten lang über sein wahres Ich im Unklaren lassen kann, könne als intelligent angesehen werden. Turing ersetzte die Frage nach der Intelligenz von Maschinen durch die Frage, wie menschlich sie in seinem Imitationsspiel wirken.

Der Original-Turing-Test funktioniert eigentlich anders: Ein Prüfer ist in einem Raum, getrennt von zwei Prüflingen. Der Prüfer muss herausfinden, welcher der beiden Mann, welcher Frau ist. Der Mann soll den Prüfer täuschen und so tun, als sei er eine Frau. Und nun schlug Turing vor, dass eine Maschine die Rolle dieses täuschenden Mannes einnimmt. Sein Originaltext vom Oktober 1950 handelt also zunächst von einer Geschlechtertäuschung und geht erst später zum Thema Mensch-Maschine-Täuschung über.

Eine Truppe Unentwegter hat die Herausforderung angenommen. Seit 1991 trifft sich jährlich ein buntes Völkchen, um der Welt zu zeigen, dass es intelligente Programme gibt. Und um einen Preis zu gewinnen: Hugh Gene Loebner, Soziologe und New Yorker Geschäftsmann, zahlt eine Prämie an den Pfiffikus, dessen Programm einen etwas abgewandelten Turing-Test gewinnt. Die Programme müssen sich einem Chat mit einem menschlichen Prüfer stellen. Das Thema können sie vorgeben. Der Prüfer weiß nicht, ob am anderen Ende der Datenleitung ein Artgenosse oder ein Chatbot sitzt. Nach fünf Minuten entscheidet er, ob er es mit Mensch oder Maschine zu tun hat.

25 000 Dollar hat Loebner ausgesetzt für ein Programm, das drei von zehn Prüfern täuschen kann. 100 000 Dollar soll bekommen, wer darüber hinaus noch mit "audio-visuellem Input" klarkommt. So weit ist noch kein Chatbot gekommen. Ob MegaHAL, natürlich nach dem Computer aus 2001 benannt, ob HeX, der Freche, oder die charmante Alice, alle wurden spätestens nach fünf Minuten als künstlich entlarvt.

Aber es gibt einen Trostpreis von 2000 Dollar für das "menschlichste" Programm eines Jahrgangs. Und den zu gewinnen ist durchaus prestigeträchtig, finden viele - auch der Australier Jason Hutchens, der dieses Jahr zum vierten Mal dabei war. "Es ist gut fürs Selbstbewusstsein zu gewinnen", sagt er. Gut fürs Geschäft wohl auch. Jason Hutchens hat einen seiner Chatbots an eine deutsche Firma verkauft, und Alice' Vater, Richard Wallace, wirbt im Netz groß mit dem Sieg beim diesjährigen Loebner-Test - dass bis jetzt nur Trostpreise vergeben wurden, wird dabei nicht erwähnt.

Bei Loebner treffen sich die Spielkinder der Künstlichen Intelligenz. Sie tun so, als sei das Programmieren sprechender Bots keine große Sache. Auf dem Gebiet sprachbegabter Software, wo die etablierte Forschung auf ganz leisen Sohlen geht und bloß keine falsche Versprechung mehr machen will, wo Milliarden an Forschungsgeldern vergeblich flossen - dort tummeln sich die Teilnehmer, hacken sich die Finger wund und glauben daran, dass das mit dem Sprechen irgendwann klappt.

Aber es will einfach nicht klappen. Auch wenn man die ganz simplen Tricks natürlich schon lange drauf hat: Man lässt die Worte mit Tippfehlern auf dem Bildschirm des Prüfers erscheinen, so, als schriebe ein ungeübter Mensch. Man macht das Programm dumm genug, damit es nicht wie jeder Taschenrechner in Sekundenbruchteilen das Produkt von 1234 mal 789 ausspuckt (das wäre verdächtig). Ganz wichtig: bloß keine Wiederholungen! Wenn zweimal eine wortgleiche Antwort kommt, fühlt sich jeder Prüfer leicht an den tumben Bordcomputer im letzten Science-Fiction-Film erinnert.

In die Wiederholungsfalle tappte beispielsweise Thom Whalen. Der Kanadier wollte den Loebner-Preis gewinnen, indem er seinem Programm Persönlichkeit gab. Nachdem es 1994 nicht geklappt hatte, schickte er 1995 Joe ins Rennen: Joe, den Hausmeister, der Angst hat, seinen Job zu verlieren. Außer dieser persönlichen Tragik verfügt Joe noch über die charakteristische Eigenschaft, von nichts eine Ahnung zu haben, weil er keine Zeitung liest, nicht fernsieht und deswegen auch die neueste Soap nicht kennt. So etwas kann vorkommen. Und tatsächlich, zu Beginn des Dialogs wirken Joes Nöte sehr menschlich: "So ein Mist, er wird mich rauswerfen!" Der Prüfer: "Wer?" Joe: "Na, der Chef!" Der Prüfer fühlt mit und fragt dann erst mal nach, was los ist.

Mancher hatte darauf aber keine Lust und versuchte, das Thema zu wechseln.

Joe aber klebte mangels weiterer Smalltalk-Fähigkeiten an seiner Hausmeistergeschichte - und konnte zu allem anderen nichts sagen. Das fünfte I don't know ließ beim Gesprächspartner ungute Gefühle aufkommen, und der Bot fiel durch. "Warum?", sagte Thom Whalen in komischer Verzweiflung - hatte er ihm denn nicht echt menschliche Züge gegeben?

Menschlich schon, aber selbst der maulfaulste Hausmeister sagt nicht fünfmal hintereinander "I don't know". Schlagfertig, eloquent, witzig muss ein Bot sein (übrigens auch der Flirtpartner in Australien), sonst fällt er durch.

Das hatte Jason Hutchens verstanden, als er sich genau einen Monat Zeit gab, um HeX zu programmieren - und gewann damit prompt den Loebner-Preis von 1996.

Hutchens wandte unter anderem den alten Eliza-Trick an: Das berühmte Progrämmchen von Joseph Weizenbaum stellte in Analytikermanier immer eine Gegenfrage. Tippte man "Ich hasse Hunde", dann sagte Eliza: "Was bedeutet es für Sie, zu sagen, ich hasse Hunde?" Sie wusste gar nichts über die Welt und formte nur Sätze um. Doch der billige Programmiertrick zieht, bei HeX und anderswo: "Leute reden gern, und ein Programm, das die Leute über sich selbst reden lässt, hat schon viel gewonnen", sagt David Hamill. Seine Mabel hat bei einem Turing-Test der BBC 29 Prozent der Prüfer getäuscht. Allerdings musste sie nur in ganz kurzen Dialogen bestehen.

Seit Eliza (sie ist jetzt 31) also nichts Neues unter der Bot-Sonne? Thom Whalen: "In der Künstlichen Intelligenz gilt die 80-20-Regel: 80 Prozent des Erfolges kann mit 20 Prozent des Aufwandes erreicht werden." Für den echten Erfolg - etwa im Turing-Test zu reüssieren - ist so viel Wissen und Programmierkunst nötig, "da sind wir noch weit von entfernt." Gene Loebner selbst korrigiert dann auch die Turing-Prognose: Im Jahr 2050 sei man vielleicht so weit, von wirklich intelligenten Programmen reden zu können.

Jack Copeland, Philosoph der Künstlichen Intelligenz und Turing-Experte, sieht nicht ganz so schwarz: Ein gutes Forscherteam mit Geld, Zeit und Motivation könnte den Test schon "innerhalb weniger Jahre" bestehen. Beim Loebner-Test flössen "nicht alle Kompetenzen ein, die es auf diesem Gebiet gibt".

Aber wieso beteiligt sich die etablierte KI-Forschung nicht am Loebner-Test?

"Die Loebner-Wettbewerber verstehen den Test als trickreiches Frageund-Antwort-Spiel, das man mit ein bisschen Lexikon und Grammatik in Gang setzt. Sie machen einfach nur Intelligenzbetrugsprogramme," sagt Thomas Christaller, Direktor des Instituts für Autonome Intelligente Systeme der Gesellschaft für Mathematik und Datenverarbeitung (GMD) in St. Augustin. Mit Intelligenz habe das nichts zu tun, "Intelligenz ist ohne körperlichen Bezug gar nicht möglich", sagt er. Körper und Geist beeinflussen sich gegenseitig.

Wer Intelligenz simulieren will, so Christaller, der muss einen Roboter bauen, der mitsamt seinem Körper autonom in der Welt handeln kann. Turing habe den Körperbezug auf subtile Art und Weise in seinem Test versteckt: "Der fragende Mensch soll herausfinden, wer von den beiden die Frau ist. Es geht eigentlich nicht darum, wer die Maschine ist. Das hat natürlich einen Körperbezug par excellence."

Wenn Intelligenz ohne Körper nicht möglich ist, dann wird es mir wohl auch nicht passieren, dass ich mich beim Cyberflirt aus Versehen mit einem australischen Chatbot verabrede. Und der Turing-Test à la Loebner gehört nur noch in die Wissenschaftsgeschichte. Eine Erkenntnis haben uns die Tests aber eröffnet: Wer beim Chat zäh über seine Probleme lamentiert, auf Witze mit "Wie meinst du das?" reagiert, alles über Picasso weiß und sonst nichts - der wird von seinem Gegenüber gerne mal für ein Computerprogramm gehalten. So jedenfalls ging es einigen menschlichen Teilnehmern bei den Tests.

* Weitere Informationen zum Turing-Test und zum Loebner-Preis finden Sie unter www.zeit.de/2000/41/turing