Weiß Deep Blue eigentlich, daß er gewonnen hat? Hat er sich nach dem Triumph über Schachweltmeister Garri Kasparow gefreut, blinkten an seiner Anzeigetafel bunte Lämpchen auf? Dumme Frage, wird der Leser denken. So groß auch immer die Rechenkapazität des Computermonsters sein mag, so schnell seine Prozessoren auch die Verhältnisse auf den 64 Feldern zu berechnen vermögen, eines bleibt ihm doch verwehrt: ein Bewußtsein seiner eigenen Fähigkeiten.

Tatsächlich haben die Wissenschaftler erst vor wenigen Jahren begonnen, sich der Erforschung dieses exklusiven Geisteszustandes zuzuwenden. Menschliches Bewußtsein, also die Fähigkeit zu subjektivem inneren Erleben, galt in der Naturwissenschaft und der Philosophie des Denkens lange Zeit als wenig seriöser Gegenstand. "Wenn man noch vor wenigen Jahren in einer Diskussion der Kognitionswissenschaften die Rede auf das Bewußtsein brachte, wurde das als ein Zeichen schlechten Geschmacks gewertet", meint etwa der Philosoph John Searle von der kalifornischen Universität Berkeley. "Die höheren Semester, immer auf die gesellschaftlichen Mores ihrer Disziplin ausgerichtet, verdrehten die Augen zur Decke und nahmen eine Miene milden Angewidertseins an."

Auch was die Erforschung der künstlichen Intelligenz angeht, so kam es seit jeher nur auf den "output" eines Systems an. Der Turing-Test etwa, seit den fünfziger Jahren der ultimative Gradmesser Künstlicher Intelligenz, überprüft nur, inwieweit ein Computer in der Lage ist, menschliches Verhalten nachzuahmen. Gelingt es einem Computer, via Bildschirm mit einem menschlichen Gegenüber zu kommunizieren, so daß dieser nicht erkennen kann, ob sein Gesprächspartner aus künstlichen Prozessoren oder aus Fleisch und Blut ist, so hat der Rechner den Turing-Test bestanden, und man muß ihm Intelligenz zubilligen.

Dieser behaviouristischen Betrachtungsweise hält John Searle entgegen, daß einer Maschine am Ende doch etwas Entscheidendes fehle: das Bewußtsein. "Das bloße Hantieren mit Symbolen genügt nicht für Fähigkeiten wie Einsicht, Wahrnehmung, Verständnis oder Denken." Selbst wenn ein künstliches Gebilde noch so perfekt menschliches Verhalten zu simulieren vermöge, so verbinde es damit doch niemals eine Bedeutung, wie es ein Mensch tue.

Diese tiefe Kluft zwischen Mensch und Maschine hätten die Vertreter der künstlichen Intelligenz noch nicht einmal richtig bemerkt, meint auch der Pittsburgher Philosoph John Haugeland: "Bewußtsein - das ist ein Thema, welches in der Fachliteratur der Kognitionswissenschaft auffällig abwesend ist. Es liegt nahe, daß solch ein dröhnendes Schweigen ein häßliches kleines Geheimnis birgt... Könnte das Bewußtsein eine theoretische Zeitbombe sein, die im Schoß der KI tickt?"

Mittlerweile hat sich die Lage jedoch geändert. In vielen Labors widmen sich gestandene Neurobiologen seit einiger Zeit diesem Phänomen. Vor allem im angelsächsischen Sprachraum haben auch die Philosophen dieses Thema wiederentdeckt einflußreiche Denker wie etwa der Materialist Daniel Dennett meinen schon "Bewußtsein, erklärt" zu haben (so der Titel eines seiner jüngsten Bücher). Und inzwischen unternehmen auch Computertheoretiker und Roboterforscher erste zaghafte Versuche, so etwas wie Bewußtsein zu simulieren.

Zwar ist man noch weit von einer expliziten Theorie entfernt, doch einige grobe Konturen werden bereits sichtbar. So glauben heute viele Hirnforscher, daß sich höhere Geisteszustände wie Selbstbewußtsein oder auch der Eindruck eines freien Willens prinzipiell aus den physikalischen Vorgängen in unserem Gehirn erklären lassen. Sie deuten Bewußtsein als "emergente" Eigenschaft der biologischen Strukturen in unserem Kopf.

"Am Bewußtsein gibt es nichts Geisterhaftes", versichert beispielsweise der Nobelpreisträger Gerald Edelman, der im kalifornischen San Diego an der bisher umfassendsten Theorie des Geistes arbeitet. Zwar maßt er sich nicht an, Bewußtsein bereits vollständig erklären zu können, doch immerhin kann er einige der notwendigen Voraussetzungen dafür benennen.

Da wäre zunächst die enorme Flexibilität des menschlichen Gehirns. Das Gehirn sei kein Computer, in dem Erinnerungen oder Verhaltensweisen fest abgespeichert seien, sagt Edelman. "Das macht keinen Sinn. Jedesmal wenn man sich an etwas unter neuen Umständen erinnert, ändert man es wieder." Er formuliert am deutlichsten die moderne Betrachtungsweise, die das Gehirn als dynamisches, selektives System sieht, einem neuronalen Dschungel vergleichbar, in dem sich Gruppen von Nervenzellen unablässig gegenseitig beeinflussen, überprüfen und so in jedem Moment zusammen ein kongruentes Bild der Welt erschaffen.

Wie könnte man so etwas künstlich erzeugen? Zunächst muß ein System sich auf immer neue Situationen einstellen können. Dazu braucht es die Fähigkeit zur Wahrnehmung und zur Interaktion mit der Umwelt. In Edelmans Neuroscience-Institut arbeiten die Hirnforscher schon seit einigen Jahren an einem Simulationsprogramm namens Darwin, das selbständig Erfahrungen sammeln und verarbeiten soll. Die Materialisierung dieses Systems ist ein kleiner Roboter namens Nomad, der auf den ersten Blick nicht besonders beeindruckend aussieht: Die Rechentonne wirkt wie eine Kreuzung aus Staubsauger und Hi-Fi-Anlage. Immerhin kann sich Nomad auf Rollen fortbewegen und hat über zwei Sinnesorgane Kontakt zur Außenwelt. Mit Hilfe einer Kamera sieht er, und ein elektrischer Kontakt, der mit einem Magneten verbunden ist, fungiert als Mund.

Mit diesen Sinnesorganen ausgerüstet, kurvt die Robotertonne in ihrer Laborwelt herum und wird dabei mit "guten" und "schlechten" Objekten konfrontiert, mit geometrischen Körpern, die elektrisch aufgeladen sind, und solchen, denen eine Spannung fehlt. Nähert sich Nomad einem der Objekte, zieht er es mit seiner magnetischen Schnauze heran und prüft mit dem elektrischen Kontakt die Spannung auf seiner Oberfläche.

Nun kommt die nächste Voraussetzung ins Spiel, die ein System zur Bewußtseinsentwicklung braucht: eine interne Bewertung der einlaufenden Reize. "Schließlich gehen auch beim Menschen manche Wahrnehmungen in Erinnerungen über, andere nicht", sagt Gerald Edelman. Er führt dies auf zum Teil angeborene Werturteile zurück, die "beispielsweise einem Baby sagen, ob es besser ist, an der Brust der Mutter zu saugen oder den Kopf wegzudrehen".

Was freilich Menschen und höhere Tiere interessant macht, ist die Tatsache, daß sie ihre Werte auch im Lichte neuer Erfahrungen verändern können.

Bei Nomad heißt das, daß er aufgeladene Objekte als "gut schmeckend", die anderen als "schlecht" einstuft - ähnlich wie ein Baby, das bitter oder sauer schmeckende Gegenstände sofort wieder ausspuckt. Überdies ist der Geschmackssinn von Nomad mit einem internen Bewertungssystem gekoppelt, das die gleichzeitig einlaufenden visuellen Reize bewertet. Begegnet der Roboter einem schlecht schmeckenden schwarzen Rechteck, so wird auch der visuelle Input "schwarzes Rechteck" als negativ bewertet - Nomad hat etwas gelernt.

Wird diese Erfahrung mehrfach wiederholt, so verknüpft der Roboter bald automatisch solche Objekte mit einem schlechten Geschmack und nähert sich ihnen nicht mehr.

Wenn auch das grundlegende Strickmuster von Nomads neuronalem Netz vorgegeben ist, so wird sein Zustand doch schon bald unvorhersagbar. So zeigte sich beispielsweise, daß das Roboterhirn auch wieder vergißt: Ist es zu lange keinen "schlecht schmeckenden" Objekten mehr begegnet, erlahmt die gelernte Bewertung der visuellen Reize, und Nomad nähert sich von neuem den zuvor gemiedenen, schwarzen Rechtecken. "Wir haben zu unserer Überraschung auch festgestellt, daß das System erstaunlich robust gegenüber Änderungen ist", erzählt Olaf Sporns, der Betreuer von Nomad. Als ein Doktorand aus Versehen einmal den Winkel der Kamera verstellte, glich Nomad seine verzerrte Wahrnehmung nach einiger Zeit von alleine wieder aus - ein Prozeß, den man auch bei lebenden Organismen beobachtet.

Ähnliche Versuche, bei denen Roboter das Denken lernen sollen, werden mittlerweile in vielen Labors verfolgt. Bislang demonstrieren sie allerdings eher, wie groß die Kluft zwischen Mensch und Maschine immer noch ist. Selbst die anspruchsvollste Avantgarde der Roboter ist weit davon entfernt, so etwas wie Geist zu entwickeln. Doch die entscheidende Frage lautet: Ist dies ein rein technisches Problem - oder gibt es so etwas wie eine prinzipielle Grenze, die Mensch und Maschine trennt?

Gehen wir die Sache pragmatisch an: Was wäre - neben Wahrnehmung, Interaktion und Erinnerungsvermögen - theoretisch notwendig, damit ein Kunstwesen so etwas wie menschliches Bewußtsein erlangt? Ein bewußter Roboter dürfte nicht nur vorgegebene Werte kennen, sondern müßte aus sich selbst heraus ein Wertesystem entwickeln können, also Zustände als "positiv" oder "negativ" einordnen: Dazu brauchte er so etwas wie ein Eigeninteresse und eine rudimentäre Form von Selbstwahrnehmung. Dies impliziert, daß er sich selbst deutlich von seiner Umwelt unterscheiden kann (mithin einen Körper besitzt) und in gewissem Sinne auch verletzlich ist (wie sollte er sonst ein Eigeninteresse entwickeln?).

Der nächste Schritt wäre dann selbständige Kommunikation. Erst ein Wesen, das von sich aus in der Lage ist, mit (gleichgesinnten) anderen Wesen zu kommunizieren, kann sein Wissen weiterentwickeln und zu neuen Einsichten gelangen. Zur wirklichen Konkurrenz für den Menschen würde daher ein Schachcomputer wie Deep Blue erst dann, wenn er aus eigenem Antrieb einen anderen Computer zu einem Match herausfordern würde.

Hier stellt sich freilich ein grundlegendes Problem: Denn wie das Studium der geistigen Fähigkeiten des Menschen lehrt, laufen die größten gedanklichen Leistungen weitgehend unbewußt ab. Woher wissen wir etwa, daß ein Gegenstand, dessen Lage verändert wurde, immer noch derselbe ist? Möglicherweise hat sich dabei seine Beleuchtung oder Form verändert, vielleicht ist er plötzlich auch von anderen Dingen verdeckt und daher nur halb zu sehen. Was für ein menschliches Baby eine kinderleichte Übung ist, wächst sich bei einem Elektronengehirn zur (bislang) unlösbaren Aufgabe aus. "Trotz jahrzehntelanger Forschung wissen wir immer noch nicht genug über Wahrnehmung, um zu wissen, wie das funktioniert", seufzt Lynn Stein, die in dem Bostoner Technologiezentrum MIT den berühmten humanoiden Roboter Cog betreut.

Doch Menschen erkennen nicht nur automatisch Gesichter, sondern formen auch Worte oder Laute, ohne groß darüber nachzudenken. In vielen Fällen bleibt uns für ein solches Räsonieren auch gar nicht genug Zeit. Ähnliches gilt für das motorische Koordinationsvermögen. Ein Fußballspieler, der sich vor dem gegnerischen Tor erst bewußt überlegen müßte, wie das Zusammenspiel seiner Beinmuskulatur exakt abzulaufen hat, um den Ball ins linke obere Eck zu befördern, hätte diesen längst verloren.

Die Menschheit hat also im Laufe ihrer Evolution höchst effektive Formen der Automatisierung entwickelt. Dazu gehört auch das unbewußte Reagieren auf körperliche Signale: Durch Gefühle bewerten wir bestimmte Situationen, schon lange bevor wir sie überhaupt rational analysiert haben. Nicht immer erweisen sich die Emotionen dabei als gute Richtschnur. Doch ein Mensch, dem das Empfinden abhanden gekommen ist, das zeigen die Ergebnisse des Hirnforschers Antonio Damasio (ZEIT Nr. 15/1996), ist auch zu richtigen Entscheidungen im alltäglichen Umgang mit anderen nicht mehr in der Lage.

Nimmt man all diese Voraussetzungen für bewußtes Verhalten zusammen - Eigeninteresse, Selbstwahrnehmung, Kommunikation, unbewußte Automatisierung und Gefühl -, dann wird deutlich, wie einzigartig menschliches Bewußtsein ist. Bleibt es prinzipiell unmöglich, menschliches Denken nachzuahmen?

"Letztlich ist die Frage, ob man so etwas wie Bewußtsein auch mit anderen chemischen Grundstoffen erzeugen kann als denjenigen, aus denen die menschlichen Wesen gemacht sind, eine Frage der Empirie", sagt selbst KI-Kritiker John Searle.

Der Neurophilosoph Paul Churchland aus San Diego denkt derweil schon einmal radikal in die Zukunft: "Wenn Maschinen es schaffen, alle unsere inneren kognitiven Tätigkeiten bis ins letzte Detail zu simulieren, dann wäre es geradezu ein neuer Rassismus, ihnen den Status echter Personen vorzuenthalten."