Der Mythos von der künstlichen Intelligenz

Von Matthias Horx

Ach wissen Sie", sagt Herr Ossendorf, Spezialist für "optische Mustererkennung", mit einer Art gefaßter Verzweiflung, "das mit der künstlichen Intelligenz ist ja so eine Sache. Wir wissen eigentlich immer weniger, wie menschliche Intelligenz funktioniert. Der Mensch aber ist ein phantastischer Rechner. Er schiebt mit unglaublicher Geschwindigkeit zu Assoziationen zusammengesetzte Einheiten hin und her. Er nimmt in Prototypen, mit Masken wahr, die nicht zu simulieren sind. Und obwohl wir hier im Institut so etwas wie ,logische Komplexe’ entwickeln wollen, bin ich sehr skeptisch, was die ,intelligenten‘ Möglichkeiten der Rechner betrifft. Sehr skeptisch."

Die Eloge auf den guten alten Bioroboter Marke "Mensch" findet am geigneten Ort statt: Im dritten Stock des neuen Hauptquartiers von Doktor Mabuse. Mabuse tarnt sich inzwischen mit netten Sekretärinnen und hat sich einen Stab von hundert Wissenschaftlern zugelegt, dazu modernste Technik: In jedem Raum dieses modernen Verwaltungsgebäudes steht mindestens ein Computer der allerneuesten Generation.

Doktor Mabuse? Nein, es handelt sich lediglich um das Fraunhofer-Institut in Karlsruhe. Die Pläne jedoch, die hier geschmiedet, getestet und entwickelt werden, muten nicht weniger teuflich an: Man will Computern das Hören, Sehen und Fühlen, am Ende sogar das Denken beibringen. "Künstliche Intelligenz", auf englisch artifical intelligence, ist der am meisten geheimnisumwitterte Sektor der Computerwelt. Hier konzentriert sich eine uralte, in jüngster Zeit wieder die öffentliche Meinung bewegende Horrorhoffnung: Daß man den "homunculus" schaffen könne – stünden nur die geeigneten Technologien zur Verfügung.

Können Computer denken? Die öffentliche Meinung zu diesem Thema scheint gefällt: Ja. Wenn nicht heute, dann früher oder später. Dieser Antwort ist ein großer Anteil an den diffusen Ängsten geschuldet, die in Sachen Computer im "Bauch der Kultur" umgehen. Der Mensch, so scheint es, wird sich nur noch eine Zeitlang aus seinen Werkzeugen hervorheben. Und irgendwann wird er ihnen zum Opfer fallen. Rationalisierung, Arbeitslosigkeit, Datenschutzprobleme – all dies sind bereits (oder nur) Vorläufer der unvermeidlichen "großen Verselbständigung" der neuen Technik.

Und die "Frontforscher" der Computerindustrie selbst? Die Kapazitäten, die es eigentlich wissen müßten, an was sie da arbeiten, wo die Grenzen und Möglichkeiten liegen? Sie scheinen eher – bis auf wenige Ausnahmen (bei denen es sich zumeist um medienorientierte Scharlatane handelt) – von einer Woge des Technik-Skeptizismus erfaßt. "Wenn man Intelligenz will", sagt mir ein Techniker der Abteilung "Tastsinn" (der Mann arbeitet, wie im Bilderbuch, an rohen Eiern jonglierenden Robots) auf dem Flur des Fraunhofer-Instituts, "sollte man in die Gentechnik gehen und Hirne züchten. Nein – das würde nicht ausreichen. Man müßte schon den ganzen, organischen Menschen zusammenbasteln, um so etwas wie "Intelligenz" zu erzielen. Denn binäre Logik, die Grundlage jeglicher Computertechnik, ist einfach dämlich. Und das wird auf ewig so bleiben."