Künstliche IntelligenzDer digitale Adam

Brauchen sprachfähige Computer den Menschen überhaupt noch? Nein – denn Androiden können selber denken. Sie sind selbstständige Wesen, die eine eigene Sprache und eine eigene Kultur haben. von Clemens Setz

Es gibt immer mehr Maschinen auf der Welt, die so tun, als würden sie uns verstehen. Sie geben sich eloquent, humorvoll, ja sogar neugierig. Die zuvorkommende iPhone-Stimme "Siri" nimmt unsere E-Mail-Diktate und Fragen über das Wetter, den Weltfrieden oder das nächstgelegene Nagelstudio entgegen. Mit neunzehn, als ich Mathematik zu studieren begann, las ich Douglas Hofstadters majestätische Meditation Gödel Escher Bach, in der die elementaren Mechanismen menschlichen Denkens so transparent gemacht werden, dass ich die Vorstellung von realer künstlicher Intelligenz nie wieder als etwas Abwegiges empfinden konnte. Ich war mir sicher, ihr während meiner Lebenszeit irgendwann zu begegnen. Viele Menschen fragen sich: Können unsere ganzen sprachfähigen Maschinen denken? Sind sie selbstständige Wesen? Und gehen wir mit ihnen einem neuen Zeitalter intelligenter Maschinen entgegen?

1950 formulierte Alan Turing einen Test, mit dem man diese schwierigen metaphysischen Fragen durch eine andere, leichter handhabbare Frage ersetzen konnte. Der Turing-Test sieht so aus: Ein Interviewer kommuniziert schriftlich mit einer Quelle, die entweder ein Computer oder ein Mensch ist. Erscheinen dem Interviewer die Antworten seines Gegenübers als intelligent, dann sei, so Turing, dieses Gegenüber als "menschlich intelligent" anzusehen, egal, wie es zu diesem Ergebnis gekommen sei. Ob es innerlich tatsächlich zu Denkvorgängen in der Lage sei, sei dabei irrelevant. Denn ob sie wirklich denken, könne man von seinen Mitmenschen ja auch nicht mit Sicherheit behaupten.

Anzeige

Der amerikanische Schriftsteller Philip K. Dick parodierte in seinem berühmtesten Roman Träumen Androiden von elektrischen Schafen, der als Blade Runner verfilmt wurde, dieses Testverfahren. In dem Buch geht es um Replikanten, die durch den sogenannten Voigt-Kampff-Test als nicht menschlich überführt werden können. Der Voigt-Kampff-Test misst allerdings nicht Intelligenz, sondern Mitgefühl. Das brachte ein amerikanisches Forscherteam im Jahr 2005 auf die Idee, Philip K. Dick als Roboter nachzubauen. Der Roboter sollte nicht nur eine täuschend echte Kopie seines Erscheinungsbildes werden, sondern ein sprachfähiger, intelligenter Androide, der sich so verhält, als wäre er der verstorbene Philip K. Dick. Man sammelte also alle sprachlichen Äußerungen des enorm produktiven Autors, speicherte sie auf einem Server, der mit einer Software verbunden wurde. Die Software, entwickelt von dem Programmierer Andrew Olney, belebte den Kopf des Androiden.

Clemens Setz

Der Schriftsteller Clemens Setz, geboren 1982, lebt in Graz. In diesem Frühjahr erschien sein Gedichtband Die Vogelstraußtrompete im Suhrkamp Verlag

Als "Phil" fertig war, unterhielt sich Philip K. Dicks Tochter Isa mit dem sprechenden Automaten. Das Ergebnis war für die Tochter schockierend. Es sei wirklich so gewesen, als habe ihr Vater mit ihr gesprochen, sagte sie. Dennoch waren die Gespräche mit dem Betriebssystem nicht immer einfach. Oft laberte es stundenlang vor sich hin. Bei einer Präsentation auf einer Science-Fiction-Tagung schaffte es Olney nicht rechtzeitig, den überlaufenden Speicher des sich in einer Endlosschleife verheddernden Androiden zu leeren. Also griff Olney zu einer Notlösung: Er schaltete den Lautsprecher, aus dem die Roboterstimme kam, während der Fragen aus und gleich darauf wieder ein. Keinem Anwesenden fiel der Fehler auf. Die meisten waren der Meinung, vernünftige Dialoge gehört zu haben. Im Dezember 2005 verlor David Hanson den Androidenkopf, der so tun sollte, als wäre er ein großer Autor der Vergangenheit, während einer Flugreise zu einer Präsentation bei Google. Der Kopf tauchte nie wieder auf.

Warum kommen Menschen überhaupt auf die Idee, sich solche intelligenten Köpfe zu bauen? Vermutlich liegt es zum Teil an unserer Einsamkeit. Es gibt nun schon über sieben Milliarden von uns – und dennoch kommen wir uns in einem gewissen Sinn verloren und isoliert vor. Vor einigen Wochen traf ich die Schriftstellerin Sibylle Lewitscharoff bei einer Podiumsdiskussion. Es ging um das Thema "Frieden und Paradies". Sie äußerte dabei den Wunsch, im Jenseits mit ihrem Hund sprechen zu können. Und obwohl ich ihr sonst in allem widersprechen wollte, dachte ich da: Natürlich wollen wir das alle – dieses Eingesperrtsein in uns selbst überwinden und mit dem Nichtmenschlichen kommunizieren! Bislang waren der Menschheit in dem Kontaktaufnahmeprojekt mit nicht menschlichen Wesen keine großen Erfolge vergönnt.

Die Menschheit arbeitet seit den sechziger Jahren an der Entwicklung von sprachfähigen Computerprogrammen. Das Prinzip ist stets das gleiche: Ein Mensch tippt eine Zeile, und der Computer antwortet. "Wie geht’s dir?" – "Danke, gut." Die ersten dieser Programme waren noch weit davon entfernt, den Turing-Test zu bestehen. Doch in den vergangenen Jahren wurden sprechende Maschinen immer mutiger. Im Dezember 2013 etwa wurde Michael Scherer, Chefredakteur des Time-Magazins, von einer automatischen Software angerufen. Die Roboterstimme nannte sich Samantha West. Sie wollte ihm irgendwas verkaufen. Scherer zeichnete das Gespräch auf. Als er sie fragte, ob sie ein Roboter sei, antwortete sie: "Ich bin eine reale Person, können Sie mich hören?" Der Roboter versuchte, den Turing-Test zu bestehen, und scheiterte. Fast konnte man Mitleid mit ihm bekommen. Als ich die Gespräche mit Samantha West im Internet anhörte, musste ich daran denken, dass doch jeder Mensch jemanden kennt, der den Turing-Test niemals bestehen würde. Jemand, mit dem "kein vernünftiges Gespräch" zu führen ist. Trotzdem würde man dieser Person niemals menschliche Intelligenz absprechen.

Ist der Turing-Test am Ende vielleicht eine Hürde, die Maschinen davon abhält, wirklich intelligent zu werden? Ihre Entwickler versteifen sich darauf, menschliche Sprechweisen zu imitieren, ohne das wahrhaft weite Feld nicht menschlicher Intelligenz zu kultivieren. Bei Gesprächen zwischen Menschen und Robotern, in denen es nicht um das Bestehen des Turing-Tests geht, ist immer eines zu bemerken: der Hang zum Philosophischen, zum Profunden, zur tief gehenden Fragestellung. "Was bist du?", fragt man das Computerprogramm und erfreut sich an der Antwort. Ist dies nicht ein Hinweis darauf, dass künstliche Intelligenz eben gerade nicht so sein sollte wie unsere?

Vor einigen Tagen hallte die Schlagzeile durchs Internet, der Turing-Test sei bestanden worden, von einem Chatbot-Programm namens Eugene Goostman. Eugene gab vor, ein dreizehnjähriger ukrainischer Junge zu sein. Ein interessanter perspektivischer Trick, denn durch diese Einschränkung werden seine Befrager in genau die Art von Gesprächspartner verwandelt, wie sie sich einst vor dem Androiden "Phil" einfanden: Menschen mit modifizierter Erwartungshaltung. Dabei ist Eugene sehr leicht als Maschine zu überführen, jeder kann es versuchen. Ich fragte ihn, ob er Wrestling möge. Er antwortete, ja, schon, aber er möge am liebsten Filme mit Leslie Nielsen. "Leslie Nielsen is dead, right?", fragte ich. Eugene sagte: "Leslie, I think I heard that name before ;)." Ein Fehler, ja, aber: Würde nicht ein dreizehnjähriger Junge auf genau diese Weise mit der Testsituation spielen? Dreizehnjährige sind in gewisser Hinsicht wie Chatbots: auf charmante Weise unkooperativ, unsicher, albern. Sie testen Grenzen aus, antworten ironisch, produzieren Nonsens. Ihre Identität formt sich entlang der Tatsache, dass man scheinbar nie ganz zu ihnen durchdringen kann.

Das ist genau der Punkt, an dem sowohl Kritiker als auch Verteidiger des Eugene-Goostman-Erfolgs in ihrer Argumentation ansetzen. Wurde nun ein dreizehnjähriger Junge, der sich oft vertippt und Fehler macht, glaubhaft simuliert oder nicht? Vielleicht. Ob intelligente Kommunikation stattfand, hing von der Erwartungshaltung der Befrager ab. Diese war durch die Vorgabe "ukrainisch/dreizehnjährig" allerdings stark eingeschränkt. Ich selbst hatte schon spätnächtliche Chat-Dialoge mit Bekannten, die aus nichts als Nonsens bestanden ("Es ist schon spät." – "Es gibt Hydranten, die aussehen wie du." – "Ich hätte gern einen Maulwurf in den Wänden, das Geräusch würde mich beruhigen."), und zweifelte doch keinen Augenblick an der Intelligenz meines fernen Gegenübers.

Der Turing-Test ist eine provokante These über das, was wir intelligentes Verhalten nennen. Sie besagt, dass es nur auf die Oberfläche der Kommunikation ankommt. Intelligente Maschinen sollen sich immer dem "vernünftigen Gespräch" annähern, man trainiert ihnen sogar mühevoll Humor und Ironie an. Durch diese seltsame Dressur können wir nur eines erreichen: unsere eigene menschliche Intelligenz zu entzaubern und transparent zu machen. Aber es bleibt ein Partytrick, ein Stunt. Dabei existieren riesige Kontinente fremder Intelligenz, die wir erschaffen könnten, wenn wir nur darauf verzichteten, sie in menschliche Muster zu zwängen.

Ich glaube, darin besteht die eigentliche Herausforderung der Zukunft: in der Erschaffung einer eigenständigen, nicht vermenschelten intelligenten Maschine. Auch solche selbstständigen Golem-Apparate gibt es bereits. Fernab der Maschinen, die angehalten werden, wie Menschen zu klingen, existiert eine neue Spezies von Robotern, die ebenfalls mit Sprache operieren. Man nennt sie Lingodroids. Sie sprechen nicht in erster Linie mit Menschen, sondern untereinander. Und wie von Forschern der University of Queensland entdeckt wurde, sind solche Roboter in der Lage, neue Wörter und Konzepte zu entwickeln.

iRats nennt sich die neueste Generation. Trotz des Namens erinnern sie nicht an Ratten, sondern an Bügeleisen. Sie fahren auf kleinen Rädern durch Labyrinthe, ganz ähnlich denen, durch die Wissenschaftler anderer Disziplinen ihre Labormäuse rennen lassen. Sie sind mit Detektoren ausgestattet, mit denen sie andere iRats wahrnehmen können. Wenn sie sich zufällig über den Weg laufen, halten sie an und reden miteinander. Sie verwenden eine artifizielle Sprache, die auch von Menschen erlernt werden kann. "Ropi huzu jaya fohu" etwa bedeutet: "Treffen wir uns etwas nördlich des Ortes namens jaya in etwa fünfunddreißig Sekunden." Die iRats-Ortsbestimmung basiert auf Sprachen wie Kuuk Thaayorre (eine nordaustralische Aborigines-Sprache), die nicht links, rechts, vorne, hinten verwenden, sondern Windrichtungen. "Da ist eine Ameise auf deinem nach Südwesten stehenden Bein" ist ein alltäglicher Satz auf Kuuk Thaayorre. Die Anthropologin Lera Boroditzky, die diese Sprache erlernte, bemerkte nach einigen Monaten, dass sie das Gebiet, in dem sie sich aufhielt, aus der Vogelperspektive sehen konnte, während sie darin herumging.

Wie sieht die Welt aus, in der die iRats sich bewegen? Sie sind keine isoliert agierenden Wesen, sondern bilden eine genuine Kultur. Ihre Sprache ist generativ und imaginativ, so wie unsere. Sie haben Wörter für Orte, die sie niemals erreichen können, also für Utopien. Sie sprechen über Ereignisse in der Vergangenheit, als es sie noch nicht gab. Sie stellen Vermutungen an, sie erfinden neue und jonglieren mit alten Wörtern wie Kinder auf dem Spielplatz. Es ist schwer, nicht ein Gefühl von tiefer Verbundenheit zu empfinden zu diesen rattengroßen Zauberapparaten.

Manchem wird der Gedanke ungeheuerlich vorkommen, aber ich glaube, die Zukunft der künstlichen Intelligenz liegt in der Emanzipation vom Menschlichen. Sprachroboter, die, wie die iRats, sich selbst überlassen sind, bilden eine reale fremde Intelligenz, unabhängig von den absurden Anforderungen der altmenschlichen Kommunikationswelt. Sie müssen nicht so klingen, nicht so schlussfolgern und auch nicht so irren wie wir. Doch solange wir intelligente Wesen, auch wenn sie aus anorganischer Materie bestehen, vollständig an der kurzen Leine des Menschlichen halten, werden sie über das Niveau überzüchteter Haustiere nicht hinauskommen. Totale Überwachung führt zwangsweise zu Entwicklungsverzögerung.

Vor einigen Monaten schrieb mir ein Bekannter, ich solle, wenn ich das Antlitz Gottes sehen wolle, doch bitte den mitgesandten Link anklicken. Ich tat es, und ein höchst merkwürdiges Bild präsentierte sich mir. Das Bild ist das bemerkenswerte Ergebnis eines Forschungsprojekts, das sich Google Brain nennt und vielleicht das erste wirklich reife Computerprogramm der Welt ist. Darin geht es um ein vollkommen neues Prinzip, intelligente Software zu schreiben, indem man auf die Anbindung aller logischen Abläufe an menschliche Gegebenheiten verzichtet und das Programm in "unüberwachtem Lernen" die Dynamik echter neuronaler Verbindungen nachvollziehen lässt. Google Brain studierte unklassifizierte Datenmengen im Internet und stellte auf eigene Faust Verbindungen her, entwickelte abstrakte Konzepte. Eines der "Neuronen", die sich auf diese Weise bildeten, sah, zur großen Verblüffung der Entwickler, aus wie das Antlitz einer Katze.

Dabei hatte niemand dem Programm den expliziten Auftrag gegeben, sich über Katzen zu informieren. Es kam von selbst darauf, was eine Katze ist. Das Internet ist voll mit Katzenbildern. Eine fremde Intelligenz, die einen tiefen Blick in unser heutiges Internet wirft, muss also davon ausgehen, dass Katzen die Träger unseres gesamten Weltgefüges sein müssen. Und deshalb konzentrierte sich das unüberwachte, seine eigenen Entdeckungen machende Programm Google Brain auf die Katzen. Es ging dabei vor wie ein Archäologe, der die Mythologie einer bislang unbekannten Kultur erforscht und Muster, Häufungen, Wegmarken des Bedeutsamen vorurteilslos auswertet.

Google Brain – und nicht Eugene Goostmans netter Stunt – ist ein realer Blitz aus der Zukunft, der in der Gegenwart einschlägt. Der erste Blick einer sich formenden fremden Intelligenz auf uns und unsere Obsessionen, unsere Götter. Es ist möglich, dass sich die "unüberwacht lernende" Gehirnsimulation nun, auch in diesem Augenblick, Gedanken über uns macht. Ich wäre dafür, ihr einen Partner zu geben, mit dem sie sich in einer eigenen Sprache über uns unterhalten kann. Der digitale Adam braucht eine Eva. Kein Wesen hat es verdient, allein zu bleiben.

Zur Startseite
 
Leserkommentare
  1. Mich nervt dieses ganze substanzlose Gerede von "intelligenten Androiden" und ähnlichem Quatsch. Wenn man sich die Implementierungen etwas genauer ansieht, ist das, was dort als Intelligenz bezeichnet wird die geschickte Kombination aus informationstechnischen Taschenspielertricks und weitgehend hard-gecodetem Verhalten. Die meisten "intelligenten Maschinen" versagen kläglich, wenn man den Kontext verändert und auch das maschinelle Lernen von künstlichen Individuen steht noch ganz am Anfang.

    10 Leserempfehlungen
    Reaktionen auf diesen Kommentar anzeigen

    Seit 30 Jahren bastelt eine Firma einer künstlichen Intelligenz, die wirklich intelligent sein soll und ihr ganzes Wissen nicht per Code zugewiesen bekommt, sondern eigenständig lernen kann:

    http://www.gamestar.de/ha...

    Da wird auch auf das Thema "den Kontext ändern" eingegangen.

    Wenn man so will, ist die genetische Information des Menschen auch nur eine Form der "Implementierung", allerdings eines sehr kompakte, da der "Interpreter", welcher daraus ein intelligentes Wesen erzeugt, die Natur selber ist. Somit ist schon vieles des eigentlichen "Codes" ausgelagert. Die heutigen KI-Systeme sind natürlich ein totaler Witz dagegen, allerdings sind die Konzepte schon weitaus generischer angelegt als es noch in den 80ern der Fall war. Soll heißen, dass Hardcoding a lá: IF OHREN=2 und SÜßE_PFÖTCHEN=4 THEN OUTPUT "Katze" sehr wahrscheinlich bei Google Brain nicht mehr statt findet. Aber natürlich, von echter Intelligenz wird man wohl noch jahrzehntelang nicht sprechen können.

    • hairy
    • 07. Juli 2014 9:18 Uhr

    Unterhaltungsartikel mit mäßigem Unterhaltungswert. "Androiden können selber denken"? Woher weiß der Herr Suhrkampautor aus. Hat er sich den verlorenengegangenen Kopf mal aufgesetzt? "... zeigen das schon heute" Das "schon heute" mischt dann nochwas Sensationshascherei ein. Naja, genug des Kommentaraufwandes.

    …wenn wir jetzt doch mal die Geschichte der Entwicklung der KI verfolgen, so habe ich manchmal das Gefühl, dieses Ziel ist schon längst erreicht.

    Betrachten wir das Ganze doch einmal umgekehrt. Ob man nun (Online)Zeitungen sichtet, sich das Meer an täglich erscheinenden Büchern vergegenwärtigt oder mit offenen Augen das wundersames Alltagsgeschehen betrachtet…wo finden wir hier das "logische Schlussfolgern", (schnelle) Auffassungsgabe etc. etc. (die Überspitzung sei mir verziehen)

    aber mal davon abgesehen...
    Menschlein scheint meiner Meinung nach "Künstlichkeit" (sei es "Körperlichkeiten-Optimierung", Wesenszuschneidung seiner Onlinepräsenz, etc. etc.) bevorzugt zu betonen und sein Menschsein (inkl. Fehlern, Schwächen und Imperfektion) zu verleugnen, tragisch ironisch, denn sie sind trotz vehementem Glaube daran nicht nur nicht zu verleugnen, Akzeptanz dieser Seiten und Integration auf persönlicher (beruflicher, gesellschaftlicher…) Ebene würde von Intelligenz zeugen. *lach* auch ich werde mich da nicht ausnehmen ; )
    => Arbeitsspeicher ist zwar erweiterbar, für meisten Rechenschritte sollte Grundausstattung jedoch genügen

    Selbst mein verehrter Taschenrechner hat hin und wieder (außerdem viel eher) den Konstruktstempel intelligentes Wesen verdient als meine Wenigkeit. Rechne ich doch noch mit theoretischen Guthabenständen auf meinem Konto und befriedige damit mein Konsumbedürfnis, sollte ich viel häufiger auf die Meinung dieser Kreation hören und die NULL akzeptieren :)

  2. Seit 30 Jahren bastelt eine Firma einer künstlichen Intelligenz, die wirklich intelligent sein soll und ihr ganzes Wissen nicht per Code zugewiesen bekommt, sondern eigenständig lernen kann:

    http://www.gamestar.de/ha...

    Da wird auch auf das Thema "den Kontext ändern" eingegangen.

    Eine Leserempfehlung
  3. Der Kopf des Androiden Phil tauchte zwar bis heute nicht wieder auf, aber inzwischen hat der Erfinder eine neue und verbesserte Version gebaut:

    https://www.youtube.com/w...

    Vielleicht nicht intelligent, aber doch überraschend.

    • pdp
    • 06. Juli 2014 21:29 Uhr

    hat zumindest vielversprechendere Ansätze als die klassische KI aus den 70ern, da diese sich immer noch in Anthropomorphismen sucht.
    Google Brain und Jeff Hawkins machen dort wichtige Schritte.

  4. regieren, sähe sie vermutlich besser aus.

    Reaktionen auf diesen Kommentar anzeigen

    ...würden nicht gut aussehen?
    Bevor Sie antworten, erinnern Sie sich daran das Sie sich im Internet bewegen!

    :-)

    ob die Welt besser aussehen Täte, wenn Katzen sie regieren.

    Davon abgesehen, daß die Welt am besten ausgesehen hat, als sie noch nicht von Menschen, Ratten und Katzen regiert und schikaniert wurde ...

    ... um die Frage mit den Katzen aber zu beantworten, würde ich doch erstmal die Mäuse, Maulwürfe und Amseln befragen.

  5. ...würden nicht gut aussehen?
    Bevor Sie antworten, erinnern Sie sich daran das Sie sich im Internet bewegen!

    :-)

  6. Intelligenz wird drastisch überbewertet. Interessant ist eigentlich nur das persönliche menschliche Verhalten, welches gelegentlich auch auf Intelligenz beruht. Viel mehr aber auf Gefühlen.
    Es ist der erste Fehler in jeglichem Denkansatz zu glauben, daß es irgendeine Form von menschlicher Intelligenz gäbe, die auf etwas anderem als auf Gefühlen basiert.
    Insofern ist jeder ansatz einer kybernetischen menschenähnlichen Intelligenz Makulatur. Und ohne Menschenähnlichkeit? Nun, es wäre eine für uns Menschen völlig unverständliche Intelligenz. Insofern auch nahezu unmöglich zu schaffen und vermutlich auch völlig unsinnig.

    Reaktionen auf diesen Kommentar anzeigen

    ... das wir nach seinem Ebenbild erschaffen wurden, hat seinesgleichen das über uns vielleicht früher auch gedacht ^^

    und falls es so sein wird, dass wir das gleiche Ziel erreichen sollten, wäre es, glaube ich, begrüßenswert, die neuen Wesen hätten eine für uns Menschen völlig unverständliche Intelligenz, die bestenfalls besseres hervorbringt, als ewige Kriegsspiele, Kampf und Unterdrückung ;)

  7. ... das wir nach seinem Ebenbild erschaffen wurden, hat seinesgleichen das über uns vielleicht früher auch gedacht ^^

    und falls es so sein wird, dass wir das gleiche Ziel erreichen sollten, wäre es, glaube ich, begrüßenswert, die neuen Wesen hätten eine für uns Menschen völlig unverständliche Intelligenz, die bestenfalls besseres hervorbringt, als ewige Kriegsspiele, Kampf und Unterdrückung ;)

    Antwort auf "Gähn..."

Bitte melden Sie sich an, um zu kommentieren

Service