Unsere Zivilisation steht heute am Anfang einer schweren geistigen Krise. Akademiker, Industrielle und Journalisten beschäftigt die Möglichkeit, daß der Computer irgendwie beweisen wird, „das Gehirn sei lediglich eine Maschine aus Fleisch“. Allein eine solche These zu erwägen bedeutet, den Nutzen der Freiheit des Menscheil, seiner Würde und seiner Autonomie in Frage zu stellen. Wie hat der Computer zur Entstehung dieser betrüblichen Sachlage beigetragen?

Wir müssen uns darüber klar sein, daß ein Computer nichts ist ohne ein Programm. Ein Programm ist im Grunde die Umwandlung eines Computers in einen anderen, welcher autonom ist und – in einem sehr realen Sinne – ein Verhalten besitzt. Programmiersprachen beschreiben dynamische Prozesse.

Wir können Programmodelle für jeden beliebigen Aspekt der realen Welt, der uns interessiert, konstruieren, und wir können diese Modelle arbeiten lassen. Doch müssen wir uns immer vor Augen halten, daß ein Computermodell eine Beschreibung ist, die da arbeitet.

Wenn wir gemeinhin davon sprechen, daß A ein Modell von B sei, so meinen wir damit, daß eine Theorie über irgendwelche Aspekte des Verhaltens von B zugleich eine Theorie der gleichen Aspekte des Verhaltens von A sei. Eröffnen uns die Programmiersprachen neue Möglichkeiten des Ausdrucks, so entbinden sie uns doch keineswegs von der Verpflichtung, verfechtbare Theorien aufzubauen. Denn auch Fehler können mit äußerster Präzision und Beredsamkeit behauptet werden, aber dadurch werden sie noch nicht in Wahrheit verwandelt.

Die fehlende Unterscheidung zwischen Beschreibungen (selbst solchen, die „funktionieren“) und Theorien erklärt weitgehend, warum diejenigen, die den Menschen nicht als Maschine sehen wollen, in die Defensive gedrängt worden sind. Neuere Fortschritte im Verstehen natürlicher Sprachen durch Computer sind ein gutes Beispiel. Die Linguisten Halle und Chomsky am Massachusetts Institut für Technologie haben lange an einer Sprachtheorie gearbeitet, der jedes beliebige Modell sprachlichen Verhaltens genügen muß. Während ihre Erfolge von ihresgleichen gefeiert und bisweilen von anderen verdammt werden, sind sie weiterhin von zwei Dingen überzeugt:

erstens, daß sie eines Tages widerlegt werden durch Forscher, die auf ihren Schultern stehen und Fehler und Armseligkeit ihres Systems aufdecken, und

zweitens, daß ihre Ergebnisse notwendige Schritte auf dem Wege zu diesem künftigen Fortschritt sind. Insofern sind sie Teil der großen wissenschaftlichen Tradition.

Viel wichtiger ist aber, daß sie ihr Arbeitsgebiet mit großer Ehrfurcht und tiefer persönlicher Demut betrachten. Informatiker, die sich mit dem Verstehen natürlicher Sprachen durch Computer beschäftigen, mögen ebenso bescheiden sein. Aber sie arbeiten in einer gewöhnlich als Performanz-Modus bezeichneten Arbeitsweise. Darin zählt nicht die Ausarbeitung einer Theorie, sondern die Leistung von Systemen.

Verführung und Irreführung

Ich habe keinerlei Zweifel, daß am Ende dieses Jahrzehnts Computersysteme existieren werden, mit denen Spezialisten wie etwa Ärzte, Chemiker und Mathematiker in natürlicher Sprache verkehren werden. Und sicherlich wird ein Teil dieser Errungenschaften auf anderen Erfolgen aufbauen, wie zum Beispiel auf der Simulation von Erkenntnisprozessen durch Computer. Daher ist es verständlich, wenn sich gewisse Täuschungen anzusiedeln und auszubreiten beginnen.

Verführt all dies nicht zu dem Glauben, daß ein Computer, der die natürliche Sprache in einem wenn auch noch so eingeschränkten Kontext versteht, etwas vom Wesen des Menschen eingefangen hat? Descartes selbst könnte es geglaubt haben. Über diese sehr verständliche Verführung wird der Computer zu einer Quelle der Philosophie.

Aber allein die Frage „Hat der Computer das Wesen des Menschen erfaßt?“ ist eine Irreführung und damit eine Falle. Denn die eigentliche Frage „Versteht der Mensch das Wesen des Menschen?“ hat nichts mit Technologie zu tun und ganz sicher auch nichts mit irgendeinem technischen Gerät.

Wir haben technologische Metaphern – „Mythen der Maschine“ – und die Technik selbst so tief in unsere Gedankenprozesse eindringen lassen, daß wir schließlich an die Technologie sogar die Aufgabe, Fragen zu formulieren, abgegeben haben. Kluge Menschen empfinden zu Recht, daß große Datenbänke und riesige Computernetze den Menschen bedrohen. Aber sie überlassen es der Technologie, die entsprechende Frage zu formulieren. Wo ein einfacher Mann fragen würde: „Brauchen wir diese Dinge?“, fragt die Technologie: „Welche elektronische Zauberei macht sie ungefährlich?“ Wo ein einfacher Mann fragt: „Ist das gut?“, fragt die Technologie: „Wird das funktionieren?“ Auf diese Weise wird die Wissenschaft und sogar die Weisheit zu dem, was Technologie und vor allem der Computer handhaben können.

Die Frage „Ist das Gehirn lediglich eine Maschine aus Fleisch?“ ist typisch für die Art von Fragen, die aus einer technologischen Mentalität formuliert und tatsächlich nur in ihr formulierbar sind. Sobald sie als rechtmäßig zugelassen ist, beginnen Streitgespräche, was ein Computer „im Prinzip“ kann oder nicht kann, und diese Streitgespräche werden dann selbst rechtmäßig. Aber die Zulässigkeit der technologischen Frage braucht nicht von vornherein anerkannt zu werden. Statt dessen kann eine menschliche Frage gestellt werden.

Systeme ohne Autoren

Der Erfolg der Technik und einiger technologischer Erklärungen hat uns dazu verleitet, der Technologie die Formulierung wichtiger Fragen an unserer Statt zu erlauben – Fragen, deren Form schon die Anzahl der Freiheitsgrade in unserem Entscheidungsraum ernsthaft einschränkt. Wer immer die Frage stellt, bestimmt in starkem Maße die Antworten. In diesem Sinne ist die Technologie und speziell die Computertechnologie ein sich selbst erfüllender Alptraum geworden, der an die Frau erinnert, die davon träumt, vergewaltigt zu werden, und ihren Angreifer bittet, nett zu ihr zu sein. Er aber antwortet: „Es ist Ihr Traum, gute Frau.“ Wir müssen einsehen, daß die Technologie unser Traum ist und daß wir es sind, die schließlich entscheiden, wie er enden wird.

Die Computerrevolution muß die Würde und Autonomie des Menschen weder in Frage stellen noch braucht sie es, sondern sie ist eine Art pathologisches Phänomen, das den Menschen dazu bewegt, ihm unberechtigte, höchst schädliche Interpretationen abzuringen. Sobald wir uns klarmachen, daß unsere Visionen, möglicherweise Alpträume, die Wirkung unserer eigenen Werke auf uns und unsere Gesellschaft bestimmen, so wird ihre Bedrohung sicherlich vermindert. Das bedeutet aber nicht, daß dieses Bewußtwerden bereits alle Gefahren ausschließt. Zum Beispiel gibt es, außer der aushöhlenden Wirkung einer technologischen Mentalität auf das menschliche Selbstverständnis, unmittelbare Angriffe auf die Freiheit und Würde des Menschen, in denen die Computertechnologie eine kritische Rolle spielt.

Wir haben bereits eine Maschine (Dendral), die über mehr chemisches Wissen verfügt als viele Doktoren der Chemie, und eine andere (Mathlab), die mehr Wissen über Angewandte Mathematik besitzt als die meisten Mathematiker dieses Zweiges. Die Kenntnisse beider können vor dem Hintergrund der Theorien, von denen sie abgeleitet wurden, bewertet werden.

Wenn der Anwender von Mathlab das aus einer bestimmten Funktion berechnete Integral für falsch hält, so kann er, einmal abgesehen von möglichen Programmfehlern, nicht in Übereinstimmung mit der mathematischen Theorie der Integration sein. Er streitet dann nicht mit der Maschine oder dem Programmierer, sondern mit einer bestimmten mathematischen Theorie. Was aber ist mit den vielen Programmen, auf die sich das Management in Regierung und Militär verläßt, von denen man keineswegs behaupten kann, daß sie auf erklärbaren Theorien beruhen, die vielmehr statt dessen ein riesiges Flickwerk von Programmiertechniken sind, aneinandergeknüpft, damit sie funktionieren?

In unserem Eifer, jeden technischen Fortschritt auszunutzen, fügen wir eiligst das, was wir bei der maschinellen Manipulation des Wissens solcher auf bestimmten Theorien basierenden Systeme gelernt haben, in dieses Flickwerk ein. Es „funktioniert“ dann besser. Nun wird es ungemein wichtig zu verstehen, wie solche Systeme wirklich konstruiert sind.

Ich denke da an Systeme zur Auswahl von Kriegszielen, wie sie in Vietnam benutzt werden, an die Kriegsspiele im Pentagon und so weiter. Diese oftmals gigantischen Systeme werden von Programmierteams in Zeitspannen häufig von vielen Jahren zusammengesetzt. Wenn dann das System schließlich wirklich in Gebrauch genommen wird, sind die meisten früheren Programmierer nicht mehr da oder haben sich anderen Aufgaben zugewandt. Und genau dann, wenn solche riesigen Systeme endlich benutzt werden, kann weder eine einzelne Person noch ein kleines Team von Spezialisten ihre inneren Arbeitsabläufe überblicken. Dies hat Folgen:

  • Entscheidungen werden auf der Grundlage von Regeln und Kriterien gefällt, die niemand kennt;
  • das System der Regeln und Kriterien ist nicht mehr veränderbar. Denn ohne detaillierte Kenntnisse der inneren Arbeitsabläufe solcher Systeme würde jede wesentliche Änderung das System lahmlegen.

Die Schwelle der Komplexität, jenseits derer diese Erscheinung auftritt, ist schon von vielen existierenden Systemen einschließlich einiger Kompilations- und Operationssysteme überschritten worden. So mag zum Beispiel niemand gewisse Operationssysteme für manche großen Maschinen, aber sie können weder wesentlich geändert noch können sie abgeschafft werden. Zu viele Menschen sind von ihnen abhängig.

Ein plumpes Betriebssystem ist unbequem. Das an sich ist nicht schlimm. Auf einem anderen Blatt aber steht, daß man sich immer mehr auf Supersysteme verläßt, die vielleicht als Hilfe bei Analysen und Entscheidungen gedacht waren, seitdem aber das Wissen ihrer Benutzer überfordern und doch für sie unentbehrlich geworden sind. Im modernen Krieg ist es dem Soldaten, etwa dem Bomberpiloten, vertraut, in einer riesigen psychischen Entfernung von seinen Opfern zu operieren. Er ist nicht verantwortlich für verbrannte Kinder, denn er sieht ja niemals ihre Dörfer, seine Bomben und gewiß nicht die brennenden Kinder.

Die moderne technologische Rationalisierung von Krieg, Diplomatie, Politik und Handel – wie etwa in den Computerspielen – wirkt sich sogar noch heimtückischer auf die Politik aus: Die Politiker haben nicht nur ihre Verantwortung zur Entscheidung einer ihnen unverständlichen Technologie übertragen, wobei sie die Illusion aufrechterhalten, daß sie, die Politiker, die politischen Fragen stellen und beantworten; vielmehr ist die Verantwortung selbst verdunstet. Kein menschliches Wesen ist mehr verantwortlich für das, „was die Maschine sagt“. Daher kann es weder richtig noch falsch geben, keine Rechtsfrage, keine Theorie, mit der man übereinstimmen oder nicht übereinstimmen kann, und schließlich keine Grundlage, auf der man in Frage stellen könnte, „was die Maschine sagt“.

Mein Vater pflegte sich auf die letzte Autorität zu beziehen, indem er zu mir sagte: „Es steht geschrieben.“ Aber da konnte ich lesen, was geschrieben steht, konnte mir einen Autor vorstellen, konnte seine Wertmaßstäbe rekonstruieren und schließlich zustimmen oder ablehnen. Dagegen haben die Systeme im Pentagon und ihre Gegenstücke überall in unserer Kultur in einem sehr realen Sinn keine Autoren. Sie erlauben daher keine Anwendung unseres Vorstellungsvermögens, die schließlich zu menschlicher Beurteilung führen könnte. Kein Wunder, daß Menschen, die Tag um Tag mit solchen Maschinen leben und von ihnen abhängen, glauben, daß Menschen lediglich Maschinen seien. Sie spiegeln damit wider, was sie selbst geworden sind.

Die potentiellen, tragischen Wirkungen solcher Systeme auf die Gesellschaft sind noch schlimmer, als es auf den ersten Blick scheinen könnte. Und es sind die Nebenwirkungen, nicht die direkten Effekte, auf die es am meisten ankommt.

Raffinierte Nebenwirkungen

Die Idee raffinierter indirekter Nebenwirkungen einer Technologie auf die Gesellschaft läßt sich an der Erfindung des Mikroskops nachweisen. Zur Zeit seiner Entdeckung, in der Mitte des 17. Jahrhunderts, wurde Krankheit allgemein als eine Strafe verstanden, die Gott einem einzelnen auferlegte. Das Mikroskop befähigte den Menschen zur Erkennung von Mikroorganismen und schuf damit die Voraussetzungen für die Erregertheorie der Krankheiten. Daneben führte die überraschende Entdeckung extrem kleiner lebender Organismen zu der Vorstellung einer kontinuierlichen Lebenskette, die wiederum eine notwendige geistige Voraussetzung für die Entwicklung des Darwinismus war. Sowohl die Theorie der Krankheitserreger als auch die Evolutionstheorie veränderten die Vorstellungen des Menschen von seinem Vertrag mit Gott und damit sein Selbstverständnis. Politisch haben diese Ideen die Macht der Kirche verringert und bisher unangreifbare Autoritäten in Frage gestellt.

Es ist sinnvoll zu fragen, ob der Computer ähnliche Veränderungen im Selbstverständnis des Menschen bewirken wird. Wie ist die psychologische Auswirkung auf die Individuen einer Gesellschaft, in der anonyme, also nicht verantwortungsfähige Kräfte die großen Tagesfragen stellen und den Bereich möglicher Antworten abgrenzen? Es kann nicht überraschen, wenn eine große Anzahl aufnahmebereiter Menschen in einer solchen Gesellschaft ihre Ohnmacht erkennen und sich in jene blinde Wut treiben lassen, die oft solche Erfahrungen begleitet.

Computergestützte Wissenssysteme werden mehr oder weniger unveränderbar (abgesehen davon, daß sie wachsen können). Weil sie Abhängigkeit erzeugen und nach Überschreiten, einer gewissen Schwelle nicht mehr aufgegeben werden können, besteht die große Gefahr, daß sie von einer Generation zur nächsten vererbt werden und dabei immer weiter wachsen.

Sicherlich, auch der Mensch überträgt seine Erfahrungen von einer Generation zur nächsten. Weil er aber sterblich ist, ist diese Übermittlung über die Generationen zugleich ein Prozeß des Filterns und der Vervollkommnung. Der Mensch überträgt nicht bloßes Wissen, er regeneriert es kontinuierlich. Soviel wir auch das Verschwinden alter Kulturen betrauern mögen, so wissen wir doch, daß die Größe des Menschen ebensosehr in der Evolution seiner Kulturen wie in der Evolution seines Hirns begründet ist.

Die unkluge Anwendung immer größerer und immer komplexerer Computersysteme könnte diesen Prozeß durchaus zum Stillstand bringen. Sie könnte die Ebbe und Flut der Kulturen durch eine Welt ohne Werte ersetzen, eine Welt, in der alles Wesentliche vor langer Zeit bestimmt und für alle Zeiten festgehalten worden ist.

Der meiste Schaden, den der Computer potentiell zur Folge haben könnte, hängt weniger davon ab, was der Computer tatsächlich machen kann oder nicht kann, als vielmehr von den Eigenschaften, die das Publikum dem Computer zuschreibt. Der Nichtfachmann hat überhaupt keine andere Wahl, als dem Computer die Eigenschaften zuzuordnen, die durch die von der Presse verstärkte Propaganda der Computergemeinschaft zu ihm dringen. Daher hat der Informatiker die enorme Verantwortung, in seinen Ansprüchen bescheiden zu sein.

Diesen Rat brauchte ich nicht einmal auszusprechen, wenn die Informatik eine Tradition der Gelehrsamkeit und Kritik besäße wie die der etablierten Wissenschaften. Beim gereiften Wissenschaftler ist gerade seine Demut die Quelle seiner Stärke. Ich betrachte es als eine der wichtigsten Aufgaben eines Fachbereichs für Informatik an einer Universität, diese Art von Demut den Studenten einzuflößen, insbesondere durch das Beispiel der Lehrenden.

Darüber hinaus muß sich der Informatiker stets bewußt sein, daß seine Instrumente ungeheuerlich verstärkende Wirkungen haben können, sowohl direkt als auch indirekt. Ein Fehler in einem Programm kann ernsthafte Folgen haben, sicherlich auch den Verlust von Menschenleben. Ich nenne ein Beispiel: Am 11. September 1971 verursachte ein Programmfehler die gleichzeitige Zerstörung von 117 Stratosphären-Wetterballons, deren Instrumente von einem Erdsatelliten überwacht wurden. Ein ähnlicher Fehler in einem militärischen Kommando- und Kontrollsystem könnte ein Rudel nuklearbewaffneter Geschosse starten. Nur die allgemeine Zensur verhindert, daß wir erfahren, wie viele solcher Ereignisse mit nichtnuklearen Waffen bisher eingetreten sind.

Der Informatiker hat daher die schwerwiegende Verantwortung, die Fehlbarkeit und Begrenztheit der Systeme, die er entwerfen kann, äußerst klarzumachen. Gerade die Wirkungsmöglichkeiten seiner Systeme sollten ihn zögern lassen, bereitwillig seinen Rat zu erteilen, und sollten ihn veranlassen, den Wirkungskreis seiner geplanten Arbeit einzuschränken.

Die Grundfrage des Informatikers ist die gleiche, die sich jeder Wissenschaftler, ja, jeder Mensch stellen muß. Sie lautet nicht „Was soll ich tun“, sondern vielmehr „Was soll ich sein. Ich kann diese Frage nur für mich selbst beantworten. Aber wenn die Technologie ein Alptraum mit anscheinend eigener unausweichlichen Logik ist, dann ist sie unser Alptraum. Der Mensch kann, Mut und Einsicht vorausgesetzt, der Technologie das Vorrecht absprechen, Menschheitsfragen zu stellen. Man kann menschliche Fragen stellen und darauf menschenwürdige Antworten finden.