Vor 25 Jahren wurde die Idee zum Personal Computer geboren.

Von Klemens Polatschek

Was ist ein Computerwissenschaftler – und wie hat er auszusehen? Ein ausgedehnter Denkerpullover aus Polyester wie der, den Alan Kay wohl in den Siebzigern das erste Mal übergestreift hat, dürfte erlaubt sein. Selbst der buschige Schnurrbart, der auch nicht mehr ganz Stand der Technik ist. Aber daß dieser Mensch bei Vorträgen seine ohnehin große Beredtheit unterfüttert, indem er tränenrührende Videos vorführt, geht definitiv zu weit für simple Wissenschaft.

Es ist nicht einfach zu verstehen, was Alan Kay eigentlich will. Er zählt 52 Jahre, lebt in Los Angeles, ist fellow – also bezahlter Vordenker – der US-Computerfirma Apple und darf als solcher allen forscherischen Gelüsten nachgeben, die ihm in den Sinn kommen.

"Mr. Kay wird als einer der führenden Computerwissenschaftler angesehen. Er ist eine Kultfigur unter Programmierern und Systemdesignern geworden", schrieb die New York Times im Jahre 1984. Bis heute erhält er, wann immer die Rede auf ihn kommt, das Attribut "Visionär" oder "Computer-Guru" angehängt.

Obwohl es einen einzelnen "Erfinder des Personal Computer" nicht gibt, ist Kay wohl der erste Anwärter auf diesen Titel – mag er selbst das auch halbherzig leugnen. 1967 dachte er sich das Konzept eines persönlichen Computers aus, der trotz höchster Leistung gerade so groß sein sollte wie ein Taschenbuch, überall verfügbar und "in der Lage, jederzeit alle Informationsbedürfnisse seines Besitzers zu befriedigen". Am Ende taufte er ihn "Dynabook" – "dynamisches Buch".

Ob die Fachwelt diese Idee für mehr ansah als für eine Hippie-Spinnerei, ist fraglich. Utopisch war damals schon die Vorstellung, ein Mensch könne einen Computer für sich allein besitzen.

Doch Alan Kay hatte mit dem Dynabook sein Lebensthema gefunden. 1972, so vermerken es Literaturlisten, taucht in einer seiner Arbeiten ("A Personal Computer for Children of All Ages") das erste Mal überhaupt der Begriff des "persönlichen Computers" auf. Kay war ein Jahr zuvor Gründungsmitglied des Palo Alto Research Center, kurz Parc, geworden. Diesen think tank für Grundlagenentwicklung hatte die Xerox Corporation aufgrund der sonnenklaren Analyse eingerichtet, daß das Büro des Jahres 1990 ein vollkommen papierloses sein werde und daß sich ein großer Kopiererhersteller dieser Entwicklung rechtzeitig stellen müsse.

"Wir haben im Parc an einem Projekt gearbeitet, das man schon romantisch nennen kann", erzählt Kay. Bereits 1973 wurde ein Computerprototyp namens "Alto" fertig: ein persönliches Werkzeug für den Schreibtisch, einfach und selbstverständlich zu benutzen.

Für den Alto entwickelte die Parc-Mannschaft neue Bildschirmwelten, die als "graphische Benutzeroberfläche" die harten Bits für den Menschen vor dem Schirm nett verpackten: Er fand elektronische Objekte vor, dargestellt durch Symbolbildchen – icons –, und die Möglichkeit, Informationen auf dem Bildschirm nebeneinander in überlappenden, verschiebbaren Rahmen oder Fenstern – windows – anzusehen und zu bearbeiten. Bewegt wurden die Elemente mit Hilfe der "Maus", jenes tastenbestückten, handgerechten Schiebekästchens, das heute an vielen Computern hängt.

Wenn Alan Kay von dieser Zeit erzählt, wirkt er leicht sentimental. Er habe damals eine Liste der 100 besten Computerwissenschaftler zusammengestellt, sagt er; dann habe er festgestellt, daß 85 davon im Parc arbeiteten – "gerade die richtigen Verrückten", wie er sie nennt. Es muß sein Herz sein, das da mitzählt, hat doch das Computerlabor des Parc den Historikern zufolge nie mehr als 50 Forscher gleichzeitig beherbergt. Um so faszinierender sind ihre Leistungen.

In einer – für Computerverhältnisse – grauen Vorzeit bauten und benutzten diese Leute genau jene Arbeitsumgebung, die sich heute, zwei Jahrzehnte später, in den Büros durchsetzt: Die Alto-Computer mit Graphikbildschirmen (bit-mapped screens im Fachjargon); Programme, die dem Benutzer neue Welten öffneten: typographische Textgestaltung, das Zeichnen auf dem Bildschirm. Dazu erstmals schnelle und leise Laserdrucker. Das Prinzip hieß "What you see is what you get", kurz "Wysiwyg" – was auf dem Bildschirm zu sehen war, mußte auch so aus dem Drucker kommen. Alle Maschinen waren zum Datenaustausch "lokal vernetzt": Das Parc schuf dafür ein System namens "Ethernet" – heute auch das meistverkaufte.

Im ‚Lauf der Zeit wurden 2000 Stück des Alto gebaut, doch insgesamt war die Sache vielleicht zu romantisch. Das Xerox-Management entschied 1976, die Weiterentwicklung des Alto aufzugeben; erst viel später, 1981, ließ es einen vergleichbaren Bürocomputer namens "Star" auf den Markt bringen, der schon wegen seines hohen Preises ein grandioser Flop wurde.

Die Welt hatte sich 1981 schon anderen Dingen zugewandt: erheblich weniger ausgefeilten Maschinen nämlich. Kalifornische Elektronikbastler hatten sich in der zweiten Hälfte der siebziger Jahre mit Hilfe der ersten Mikroprozessoren den Traum vom persönlichen Rechner selbst verwirklicht; der Gigant IBM ahmte die Idee 1981 mit seinem IBM-PC nach und eroberte damit die Bürowelt – allesamt Computer, von Bastlern für Bastler ersonnen, die jeden normalen Benutzer in ein Verlies aus kryptischen Systembefehlen warfen.

Im Jahr 1981 wurde Alan Kay Chefwissenschaftler beim Computerspiel-Pionier Atari. Als Herr eines Forschungsbudgets von vierzig Millionen Dollar jährlich sollte er die Computer der neunziger Jahre entwerfen – gerade gegenwartsfern genug für ihn. Dann schrieb Atari hohe Verluste; im Mai 1984 gab der Konkurrent Apple bekannt, daß man Kay engagiert habe. Der Mann, der ihn unbedingt haben wollte, hieß Steven Jobs, einer jener Elektronikbastler, aus dessen Hobby die Milliardenfirma Apple gewachsen war. Jobs hatte schon im November 1979 bei einem Besuch im Xerox Parc den Wert der neuen Ideen erkannt; alle zukünftigen Apple-Produkte sollten, so lautete sein Wille, auch eine "graphische Benutzeroberfläche" erhalten. Aber erst das Modell "Macintosh", 1984 vorgestellt, schaffte es schließlich, die Vision von menschenfreundlichen Computern über die achtziger Jahre zu retten, später begleitet von zwei Heimcomputern von Atari und Commodore.

Die übermächtige Welt der Industriestandard-Rechner nach IBM-Rezept sah diese Idee jahrelang als Kinderkram an. Die Softwarefirma Microsoft versuchte mit ihrem "Windows" genannten Programm von 1985 an vergeblich, auch dort Maus, Symbolbildchen und Fenster zu etablieren; es gelang erst mit der dritten Version im Jahr 1990. Sie löste ein Fieber in der Personal-Computer-Szene aus. Ideen aus dem Parc setzten sich nun mit einem Schlag durch, und die Maus wurde zum Standardinstrument.

Fortschritte, so scheint es ja, bringt die Computerindustrie nur noch atemlos über die Bühne. Sie durchlebt wirtschaftlich harte Zeiten, das ist bekannt. Und es spricht alles dafür, daß sie sich deshalb in Krämpfen windet, weil sie gerade ein neues Zeitalter auf die Welt bringen muß, von dem kein Mensch weiß, wie es letztlich aussehen soll. Außer vielleicht Exoten wie Alan Kay. Denn alle technischen Entwicklungen steuern unabwendbar auf das Dynabook zu.

Die Labors der Industrie liefern sich einen Abspeckungs-Wettkampf um den bedingungslos tragbaren Computer; derzeit sind ihre "Notebook-Computer" bei gut zwei Kilo angekommen (das Doppelte dessen, was Kay sich 1967 wünschte). Neue Methoden der Benutzung werden ausprobiert – die "Pentops" etwa sind tragbare Rechner, auf deren Bildschirm der Mensch einfach mit einem speziellen Stift schreiben soll. Zudem werden die bei diesen Geräten üblichen Flüssigkristallanzeigen seit vergangenem Jahr auch als Farbversion angeboten. Die Geräte der Zukunft sollen damit nicht nur Text und Graphik zeigen, sondern gleichermaßen auch mit Videos, Musik und Sprache fertig werden. Das Schlagwort dafür heißt "Multimedia".

Schließlich bemühen sich die Hersteller in aller Welt, Datenaustausch über Funkdienste zu ermöglichen – die Rechner sollen alle Kabel abwerfen und den Menschen mit seinem Getippe genauso beweglich machen, wie das Mobiltelephon es ihm mit seinem Geschnatter schon erlaubt.

Lange wurde die Verschmelzung von Computertechnik, Medien, Telekommunikation und sogar Unterhaltungselektronik beschworen: In diesem Jahrzehnt wird sie stattfinden. Das Hauptproblem dabei ist nicht die weitere Verkleinerung der Bauteile, sondern die Entwicklung der Programme, die solch komplexe Geräte erst handhabbar machen.

Auch da, in der Zunft der Software-Ingenieure, hat sich fast über Nacht eine neue Denkart ausgebreitet: eine neue Sichtweise der Programmierung, genannt "Objektorientiertheit". Die ersten ihrer Konzepte entstanden 1966 in Norwegen beim Entwurf der Programmiersprache "Simula"; nun braucht es nicht viel Phantasie zu erraten, wo der restliche Ideenkanon und damit das auf die Welt kam, was heute eigentlich unter einem objektorientierten System verstanden wird: Es war im Xerox Parc, in den siebziger Jahren.

Alan Kay entwarf damals mit seiner Kollegin Adele Goldberg eine komplexe Programmierumgebung für den Alto-Computer, die den Namen "Smalltalk" bekam. Sie hält Entwickler dazu an, ein Programm aus vielen kleinen Software-Modulen oder eben "Objekten" zusammenzusetzen. Dank ausgeklügelter Regeln bleibt die Entwicklung flexibel, und das Produkt wird stabil – wie es sich für einen guten Baukasten gehört.

Gremien und Firmen, die andere Programmiersprachen weiterentwickeln, greifen in den letzten Jahren begierig nach diesem Konzept. Mag object-oriented programming auch ein abstraktes Ideengebäude sein – das US-Wirtschaftsmagazin Business Week strickte im vergangenen Herbst gleich eine Titelgeschichte daraus.

Denn die Betriebswirtschaftler dieser Welt hoffen, die Programmierer würden sich nun schnell eine Sammlung universeller Software-Bausteine anlegen, aus der sie sich dann bei weiteren Projekten bedienen könnten – kurz: Sie würden rationeller, also billiger arbeiten. Ja, es wäre damit sogar die vielbeschworene "Software-Krise" (viele Programme werden nicht rechtzeitig fertig, manche gar nie) in den Griff zu kriegen.

All das marktreif zu machen kostet so viel Geld, daß die Konzerne einander über alle Spartengrenzen hinweg die Hände reichen. Sharp baut mit Apple an personal digital assistants, Produktname "Newton"; Motorola und Ericsson werden ihre neuen Datenfunkverbindungen bis Ende des Jahres in hundert US-Großstädten anbieten; es fehlt kein großer Name, ob AT&T, Toshiba, Oracle oder MacCaw Cellular Communications. Auch hierzulande hat die Bundespost Telekom einen neuen Dienst namens "Modacom" (für "Mobile Daten-Communication") vorbereitet.

Im Grunde ist Kay nun, da die Industrie sich seiner alten Phantasien bemächtigt, längst woanders. "Er möchte uns allen immer gern fünfzehn Jahre voraus sein", sagt sein Chef, Apples Topmanager John Sculley. Nämlich dort, mit Verlaub, wo Fortschritt noch spannend ist.

Alan Kay, geboren 1940 in Massachusetts, war als Kind eine schreckliche Leseratte, hochbegabt. Schulprobleme in Mengen. Das Künstlerische sticht ihn bis heute, und mit der Musik verbindet ihn ein geradezu verzweifeltes Verhältnis. Während seiner gesamten Studienzeit spielte er Gitarre in professionellen Jazzbands. Beinahe wäre er dabeigeblieben, steckte er bloß die Ansprüche nicht so hoch. Die Computerforschung ist ihm recht gleichgültig; dort hat er Erfolg.

Nach Abschlüssen in Mathematik und Molekularbiologie ging Kay an die Universität von Utah und machte seinen Doktor in Informatik. In diese Zeit, 1966 bis 1969, fallen seine grundlegenden Ideen; er entwickelte eine Art Personal Computer namens "Flex", ein grobes Ding, wie er bald selbst fand. An der Stanford-Universität, seiner letzten Station vor dem Xerox Parc, fand er die nötigen Anregungen. Ein Pionier namens Douglas Engelbart werkelte dort an der Erfindung eines graphisch orientierten Bildschirms, und er hatte auch das passende Eingabegerät gebaut: die ominöse "Maus". An beidem konnten die Verrückten im Parc später nicht vorbeigehen.

Auch in die Psychologie der Wahrnehmung und des Lernens vergrub sich Kay. Unter seinen wichtigsten Gedankenspendern rangiert der US-Wissenschaftler Jerome Bruner, der in den fünfziger Jahren die Kognitive Psychologie mitbegründete: Er variierte die Experimente, die der Schweizer Psychologe Jean Piaget mit Kindern angestellt hatte – und postulierte, daß das, was Piaget als Entwicklung durch die Altersstufen sah, verschiedene Wahrnehmungsweisen sind, die unser ganzes Leben bestimmen. Die kinästhetische Wahrnehmung (der Bewegungssinn), die visuelle (das Bildsehen) und die symbolische (das formale Denken) – sie alle konkurrieren in unserem Gehirn.

"Ich bin nicht wirklich ein origineller Denker", versicherte Alan Kay einmal – und das einzige, was er allein geschaffen habe, seien ein paar Programmiersprachen und die Idee der Bildschirmfenster. Vielleicht ist er nicht einmal ein sogenannter richtiger Wissenschaftler. Aber womöglich zeichnet ihn genau das aus – das Ideenherbarium in seinem Kopf, seine Kraut-und-Rüben-Bibliothek, seine Spürnase für brauchbare Einfälle.

Das Merkwürdigste ist seine Beraterrunde. Zwischen Zeichentrickspezialisten der Disney-Studios findet sich da ein Mann namens Tim Gallwey, der mit der Behauptung bekannt wurde, er könne auch den unbegabtesten Leuten binnen eines Tages das Tennisspielen beibringen.

Das tränenrührende Video, das Kay bei Vorträgen zu zeigen pflegt, ist der Bericht eines Fernsehteams, das Gallwey heimsuchte und ihm mitteilte, man habe nur dreißig Minuten Zeit und er solle doch einmal einen hoffnungslosen Fall vorführen. Gallwey akzeptierte und präsentierte Molly, eine Frau über die Vierzig und sehr dick, die trotz aller Bemühung keinen Ball traf.

Gallweys Methode versucht Interferenzen, also Störungen zwischen den Teilen des Denkapparats auszuschalten. Alle Teile, die von Tennis keine Ahnung haben, zum Beispiel das symbolische Denken, müssen abgelenkt werden. Gallwey stimmte Molly ein; sie mußte immer "bounce" sagen, wenn der Ball aufsprang, und "hit", wenn der Schläger ihn treffen sollte. Es dauerte nur Minuten, und etwas in ihr gab ihr den richtigen Rhythmus vor; dann meisterte sie nacheinander Vorhand, Rückhand und schließlich auch noch den Aufschlag. Das Video zeigt es, gleichwohl traut man seinen Augen nicht.

Die Pointe, die Kay erzählt, geht so: Molly übertrug die Methode danach auf ihr nächstes Problem, das Körpergewicht. Es funktionierte. Zunächst nahm sie selbst ab; dann gründete sie eine erfolgreiche Schlankheitsfarm.

Wonach sucht Alan Kay? Nach märchenhafter Mühelosigkeit?

Es sei doch merkwürdig, sagt er: Der Flügel in seinem Wohnzimmer bestehe aus 20 000 Einzelteilen, zehnmal mehr als sein Personal Computer; wie darf es sein, fragt er, daß kein Pianist jemals so ein Instrument als Maschine empfinde – während der Computer das Gefühl vermittle, die kompliziertesten Mechanismen vor unsere Ziele zu stellen?

Es geht da nicht um die eher primitive Diskussion, die die Computergemeinde heute zum Thema "graphische Benutzeroberfläche" veranstaltet. Es geht nicht um "Bequemlichkeit für den Benutzer" (als müßte uns die Maschine die Faulheit gönnen) und nicht darum, daß ein paar Computercracks weiter auf ihre kryptischen Systembefehle schwören wollen (sollen sie). Schon gar nicht ist ein System um so besser, je bunter es ist.

Es geht darum, daß der Computer als Werkzeug unseren naturgemäß hochfliegenden Ideen keine Widerstände entgegensetzen darf. Wenn, wie das in Kays Kreisen formuliert wird, diese Maschine ein Theater zur Darstellung von Inhalten ist und der Bildschirm die Bühne dafür, dann lautet der Auftrag an den Systemdesigner schlicht: Inszeniere ein Stück, das die Zuschauer sofort verstehen. Eine einheitliche Welt. Keine "Oberfläche" ist verlangt, sondern eine ungebrochene "Benutzerillusion".

Leider werden es die alten Konzepte aus dem Parc nicht mehr lange tun. Ihre Illusionstricks und Interferenz-Unterdrücker mögen einige hundert Informationsquellen übersichtlich für die Benutzer ordnen, sagt Alan Kay. Mit der absehbaren universellen Vernetzung zukünftiger Geräte stünden jedoch "Milliarden von Informationsquellen" zur Verfügung.

Vielen mag das als Problem aus dem Kayschen Paralleluniversum erscheinen, das sich mit unserer gegenwärtigen Welt offensichtlich nur geringfügig überlappt. Immerhin liefert Kay eine mögliche Lösung gleich mit: agents, Agenten also. "Agenten sind halb-intelligente Programme, an die man Arbeiten delegieren kann", erklärt er – ähnlich den alten Software-Objekten, nur um vieles kompakter, selbständiger, schlauer.

Die Idee selbst ist bald vierzig Jahre alt und stammt vom Computerforscher John McCarthy; die ersten Prototypen entstanden am Media Lab des Massachusetts Institute of Technology (MIT), der Spitzeneinrichtung für alle Kayoiden Forschungen. Kay selbst war dort vom Gründungsjahr 1985 an als Teilzeitprofessor engagiert.

Inzwischen konzentriert er sich auf das Projekt, das er 1986 mit seiner alten Mitarbeiterin Ann Marion ins Leben gerufen hat. Es heißt "Vivarium". Geforscht wird in der "Open School: Center for Individualization" in Los Angeles, einer kleinen Grundschule mit 400 Kindern.

Die Schüler sind Kays Entwickler, Tester und Testpersonen in einem: Sie basteln etwa an der bunten elektronischen Simulation eines Korallenriffs. Die Fische, die darin herumschwimmen, sind Softwaregebilde, zusammengesetzt aus zwanzig oder dreißig Agenten, die wie widerstrebende Instinkte das Verhalten des Tiers erzeugen.

Diese Spielerei liefert Antworten auf alles, was Kay umtreibt: Was hilft der Computer bei der Vermittlung komplexer Zusammenhänge? Können Software-Agenten solche Zusammenhänge nachbilden? Wie programmieren Benutzer eigene Agenten?

Mit Kindern hat Kay schon im Xerox Parc gearbeitet, und er spricht nur begeistert von ihnen. Die Achtjährigen brächten Experimente schnell auf den Punkt, sagt er; wenn man ihr Interesse nicht mehr kitzeln kann, springen sie auf, um Ball zu spielen, während ein leidgeprüfter Erwachsener stumpf sitzen bleiben würde. "Wenn Kinder ein System nicht verstehen", sagt Alan Kay, "dann ist es auch nicht gut."

Die ominösen Agenten sollen eine neue Brücke zwischen unserer Vorstellungswelt und dem Computer schlagen. Wo heute die Maschine den elektronischen Schreibtisch samt aller toten Utensilien spielt, könnte sie im nächsten Schritt wirklich zur Bühne werden, auf dem elektronische Helfer auftreten. Kays Geldgeber Apple produzierte 1988 ein Video, das zwischen Promotion und Sciencefiction schwankte. In dem Film sprach ein Universitätsprofessor mit einer taschenbuchgroßen Maschine namens "Knowledge Navigator". Auf ihrem Bildschirm zeigte sich ein freundlicher Sekretär, ein Geschöpf aus Software, das dem Professor aus den verschiedensten Quellen Material für einen Vortrag zusammenstellte.

Agenten sollen auch versteckt im Innern zukünftiger Maschinen wirken. Beim "agentenorientierten Programmieren" genügen wenige knappe Anweisungen, um große Effekte zu erzielen. An die Stelle heutiger Tabellen, Texte und Graphiken sollen komplexe Simulationen treten. Ein Unternehmer könnte dann mit einem dynamischen Modell seiner Firma arbeiten statt mit Kostenstellenanalysen, gedruckt auf Stapel von Papier. Denn Drucken, versichert Kay, habe in einer Ära des Dynabooks kaum mehr Sinn – denn alle Daten aktualisieren sich ständig, und man kann immer auf sie zugreifen. "Wer etwas ausdruckt, lebt in der Vergangenheit", sagt er.

Um keine Mißverständnisse zu produzieren: Alan Kay sagt nicht den Tod traditioneller Medien voraus. Als alter Bücherwurm kann er rührend konservativ werden; wenige Sorgen plagen ihn mehr als die, aus seinen Dynabook-Ideen könnte womöglich "eine neue noch lähmendere Form des Fernsehens werden".

Was wird denn aus dem Dynabook?

Eine von den Geschichten, mit denen Kay alle Augenblicke seine Zuhörer verblüfft, ist die von der großen Vatikanischen Bibliothek vor der Erfindung des Buchdrucks. In ihr lagerten einige hundert großformatige Folianten, jeder an ein eigenes Lesepult gekettet.

Dann kam bekanntlich Gutenberg. Für erwähnenswerter hält Kay jedoch den venetianischen Drucker Aldus Manutius, geboren 1449. Erst Aldus habe gesehen, wie revolutionär die neue Technik war, "vor allem aber war er der erste Mensch, der erkannte, daß gedruckte Werke nicht kostbare Handschriften nachzuahmen brauchten", sagt Kay. Man mußte Bücher nicht mehr anketten. Man konnte sie billig machen und tragbar. Sie durften sogar verlorengehen. Aldus und seine Söhne druckten die Klassiker der Antike in hoher Auflage, und das Format wählten sie so, daß die Bücher genau in die venetianischen Satteltaschen paßten (es hat sich bis heute im Buchdruck erhalten).

Wird das Dynabook, wie immer es eines Tages aussehen mag, auch in eine solche Kulturgeschichte eingehen? Alan Kay selbst dürfte sich einen Platz reserviert haben: Als erster Mensch, der erkannte, daß auch Computer ein Recht darauf haben, herumgetragen zu werden – und beizeiten wieder verlorenzugehen. Und daß der beste Computer der ist, den man als solchen gar nicht sieht. Weshalb er auch überall drinstecken kann. Davon reden immer mehr Leute, und es ist Kays Idee – nur, um das mal notiert zu haben.

"In Kalifornien, eines Tages, werden wir die Computer in unsere T-Shirts einweben", sagt Alan Kay. Noch dürfen wir darüber lachen.