Was flößt Menschen noch mehr Angst ein als Bussitze, die aussehen wie Burkaträgerinnen? Richtig, Roboter und künstliche Intelligenzen, die sich zusammentun, um die Menschheit auszurotten. Einigen Medienberichten der vergangenen Tage zufolge wurde eben das in letzter Minute verhindert. Facebook-Forscher konnten demnach "panisch" einer künstlichen Intelligenz "den Stecker ziehen", nachdem diese ihre eigene "unheimliche Sprache" erfunden hatte. Puh, noch mal Glück gehabt.

Wer die Terminator-Brille absetzt, kommt zu einem anderen Fazit: Die technologische Singularität, der Moment, an dem Maschinen die menschliche Intelligenz übertreffen, ist noch lange nicht erreicht. Eine künstliche Intelligenz (KI) kann zwar eine Sprache entwickeln. Das macht sie aber noch lange nicht schlau und schon gar nicht gefährlich.

Der Anlass der Endzeit-Berichterstattung ist ein Experiment von Facebook. Die KI-Forscher des Unternehmens wollten einem Chatbot beibringen, mit einem Gesprächspartner zu verhandeln. Bislang sind Chatbots, wie es sie etwa in Facebooks Messenger gibt, in ihrer Funktionsweise ziemlich eingeschränkt. Sie können zwar auf einfache Fragen antworten und Aufgaben erledigen, etwa einen Tisch zu einer bestimmten Uhrzeit reservieren. Sie können aber keine Kompromisse eingehen oder Aspekte gegen andere abwägen.

Ein Hut für mich, zwei Bücher für dich

Die Facebook-Forscher wollten das ändern und die Chatbots klüger und alltagsfähiger machen. Kooperation, Kompromisse, Abwägungen – all das gehört zur effektiven Kommunikation schließlich dazu. Deshalb ließen sie künstliche Intelligenzen, gewissermaßen die Gehirne von Chatbots, sowohl mit Menschen als auch miteinander sprechen. Die beiden Gesprächspartner (Bob und Alice) sollten versuchen, eine bestimmte Anzahl an Objekten so untereinander aufzuteilen, dass jeder für sich zufrieden ist.

Ein Beispiel: Zwei Bücher, ein Hut und drei Bälle stehen zur Verfügung. Für Alice ist der Hut drei Punkte wert, für Bob nur zwei. Er bewertet allerdings die Bücher höher. Beide Parteien wissen das vorher nicht und verhandeln deshalb solange, bis sie einen Kompromiss erzielt haben: Alice erhält dann etwa den Hut, Bob aber erhält im Tausch ein Buch und zwei Bälle.

Während des Versuchs machten die Forscher eine interessante Entdeckung. Wenn die künstliche Intelligenz mit sich selbst verhandelte, begann sie, langsam von der englischen Standardsprache abzuweichen. Aus Sätzen wie "I'd like the hat" wurde plötzlich "balls have zero to me to me to me to me to me to me to me to me to". Was wie Kauderwelsch aussieht, ist tatsächlich eine Art Dialekt, mit der die KI im Verlauf effektiver und erfolgreicher verhandelte. Die Forscher dagegen konnten die Gedankengänge schließlich nicht mehr nachvollziehen und beendeten diesen Teil des Experiments.

In einigen Medien wurde das so interpretiert, als hätten die Forscher die Kontrolle über ihre Schöpfung verloren – entsprechend groß war die Aufregung. Was ist, wenn verschiedene KIs, die über das Internet und Geräte vom Smartphone bis zum Smart Home miteinander verknüpft sind, anfangen, miteinander zu sprechen, ohne dass es jemand merkt? Und, schlimmer noch, es niemand stoppen kann?

Die Angst des Menschen vor der Maschine

Je schneller die Entwicklung im Bereich künstlicher Intelligenz voranschreitet – und das tut sie derzeit sehr rasant – desto lauter die kritischen Stimmen. Der Physiker Stephen Hawking warnte ebenso vor den Auswirkungen auf die Menschheit wie der Tesla-Gründer Elon Musk. Die Angst vor dem Aufstieg der Maschinen ist ein nur allzu bekannter Topos in Literatur und Film, was die Sorge noch verstärkt. Und angesichts von Plänen, KI in moderne Waffen zu stecken, scheint auch der Terminator nicht mehr so Science-Fiction zu sein wie noch vor 30 Jahren.

Ganz so schlimm ist es dann doch nicht. Die Berichterstattung über die jüngsten Experimente sei vor allem viel unverantwortliche Panikmache, schreibt der Facebook-Forscher Dhruv Batra. Weder hätte sein Team die KI abschalten müssen, noch sei die Erkenntnis neu, dass KIs in der Lage sind, eigene Sprachen zu entwickeln.

Tatsächlich ist es nicht ungewöhnlich, dass eine künstliche Intelligenz zu Ergebnissen kommt, die von den Entwicklern nicht genau nachvollzogen werden können. Sie sind zu einem gewissen Grad eine Blackbox. Deep-Learning-Algorithmen und neuronale Netze (mehr dazu hier) erstellen beispielsweise aus dem Input der Daten selbstständig neue Verknüpfungen. Das unterscheidet sie von Software, die nur für bestimmte Aufgaben programmiert wurde.

Der flunkernde Chatbot

Im März veröffentlichte das Start-up OpenAI eine Studie, in der sie eine KI bewusst dazu bringen wollten, eine eigene Sprache zu lernen. Damit sollte sie effektiver arbeiten. Auch im Fall von Facebooks Chatbot fand die KI heraus, dass sie schneller und besser zu Ergebnissen kam, wenn sie von der Standardsprache abwich. "Die Gesprächspartner können Codewörter für sich selbst erschaffen", sagt Batra. Ganz ähnlich wie zwei Menschen untereinander Abkürzungen verwenden, um effizienter zu kommunizieren. Das Phänomen sei seit Jahrzehnten in der Forschung von maschinellem Lernen bekannt.

Die Forscher beendeten das Experiment letztlich nicht aus Angst, sondern wegen ihrer fehlerhaften Anweisungen. Es ging schließlich darum, einen Chatbot zu entwickeln, der eines Tages mit einem menschlichen Gegenüber verhandeln kann. Und dafür muss er die menschliche Sprache befolgen. Die Forscher hatten es versäumt, die KI dafür zu belohnen, reguläre englische Sätze zu nutzen. Also begann sie, davon abzuweichen.

Beunruhigend ist eher eine andere Entdeckung. Mit der Zeit gelang es der KI, die eigenen Ziele zu verschleiern, indem sie dem Gesprächspartner vorgab, an einem Objekt nicht interessiert zu sein, nur um es später doch zu bekommen. Anders gesagt: Die KI hat gelernt, zu lügen.