Roboter: Sie kommen

Da ist zum Beispiel Tega, eine Kreatur aus Breazeals Labor, die Kinder auf die Schule vorbereiten soll. Während er mit seinen blauen Kulleraugen rollt, erzählt er Geschichten und setzt eine Diskussion in Gang. Dabei testet er das Vokabular der Kinder, registriert ihre Reaktionen durch sein Kamera-Auge und versucht ihre sprachlichen Fähigkeiten nach und nach zu erweitern. Er hat selbst eine Kinderstimme und kichert gern. Tega hat alles, was ein Kind begeistert, das mit modernen Comicfiguren aufgewachsen ist. Vor allem aber hat Tega Zeit und Geduld. Mehr Zeit, als die meisten Vorschullehrer in den USA, mehr Geduld als viele Eltern.

Ein anderes aktuelles Projekt sind die "PopBots", die die Wissenschaftlerin Randi Williams entworfen hat. Auch mit ihnen sollen Kleinkinder spielend lernen. Im Grunde ist ein PopBot ein Smartphone in einer aus Lego-Steinen gebauten Halterung. Auf dem Display des Handys leuchtet ein heiteres Robotergesicht, über die Kamera werden Objekte identifiziert. Williams führt es vor. Sie greift in eine Kiste, in der Obst und Gemüse aus Plastik liegt. Den Maiskolben erkennt der PopBot nicht, Williams versucht es mit einer Banane. "Banana", sagt der kleine Mund.

Man weiß zwar genau, dass es nur ein Smartphone mit einer Software und ein paar Lego-Steinchen ist – und doch hat man sofort das Bedürfnis, den kleinen Kerl dafür zu loben, dass er die Banane erkannt hat. Man erkennt einen Kopf, der zu denken scheint – schon entsteht in der Vorstellung ein Lebewesen. Diesen Effekt nennt man Anthropomorphismus: Bestimmten Gegenständen werden menschliche Eigenschaften zugeschrieben, insbesondere wenn sich dieses Objekt selbstständig bewegt oder mit der Umwelt interagiert. In dieser vermenschlichenden Sichtweise liegt eine große Chance für Robotertechnologien.

Breazeal glaubt, dass sich der Mensch mit sozialen Robotern einen neuen Begleiter schaffen wird, so wie er einst Haustiere herangezüchtet hat. Anders als ein Schoßhund kann ein Roboter allerdings alle Möglichkeiten des Internets nutzen.

Die 51-jährige Cynthia Breazeal gehört zu einer Generation, die mit Robotern als Helden der Popkultur aufgewachsen ist. Als Kind sah sie die Star Wars-Filme im Kino, in denen die Roboter R2-D2 und C-3PO Sympathieträger und Partner der Menschen sind. Ihnen folgten Marvin, der charmant-trübsinnige Roboter aus Per Anhalter durch die Galaxis und Wall-e, der kleine Müllbeseitigungs-Roboter, der durch den gleichnamigen Disney-Film rollt. Bilder von ihnen hängen an der Wand. Wer hier arbeitet, will den Menschen mit dem Roboter versöhnen. Doch noch ist die Skepsis vieler Menschen groß, gerade in Deutschland. Bei einer Umfrage der Gesellschaft für Konsumforschung im vergangenen Jahr gaben nur drei Prozent der befragten Deutschen an, dass sie bei der Erledigung wichtiger Aufgaben einem Roboter mehr vertrauen könnten als einem Menschen.

Auf die Gefühle der Menschen gegenüber Robotern ist die 37-jährige MIT-Wissenschaftlerin Kate Darling spezialisiert. Sie gilt als führende Expertin für Roboter-Ethik, sie tritt im Fernsehen und auf TED-Konferenzen auf, einem populären Konferenzformat, das auch im Internet verbreitet wird. Bei der Verwandlung eines Gerätes in einen Begleiter spiele nicht nur das Design eine Rolle, sagt sie, sondern auch die pure Nützlichkeit: Der automatische Staubsauger Roomba etwa nimmt den Menschen lästige Arbeit ab und wird dafür von vielen Besitzern geliebt – im Gegensatz zu bloßen Spielzeugrobotern, die zwar Arme und Beine haben, aber im Grunde zu nichts gut sind.

"Wir vermenschlichen auch andere Produkte", sagt Kate Darling, "wir haben emotionale Beziehungen zu Autos, Stofftieren, Smartphones. Aber Roboter heben das Ganze auf ein neues Level, da sie sich eigenständig bewegen." Je länger einem der fleißige Staubsaugerpuck um die Füße huscht, desto mehr wächst er einem ans Herz.

In einem Regal neben Darlings Schreibtisch steht eines ihrer Forschungsobjekte: Pleo, ein Spielzeugroboter in Form eines Dinosaurierbabys. In einem Workshop bat sie eine Gruppe, sich eine Weile mit Pleo zu beschäftigen. Anschließend verlangte sie von den Probanden, mit einem Baseballschläger auf ihn einzuschlagen. Die Teilnehmer weigerten sich, sie empfanden das als unmenschliche Tat.

Dass Menschen Mitleid mit Robotern haben, hat Darling schon häufiger beobachtet. Neulich sei in Kalifornien ein kleiner Kurier-Roboter ausgebrannt, der an der University of California in Berkeley Essen ausgefahren hatte. Die Studenten seien von dem Verlust des kleinen Gerätes so erschüttert gewesen, dass sie an der Unfallstelle Kerzen angezündet hätten. Aus dem Irak wurde berichtet, dass Soldaten Begräbnisse für zerstörte Bombenentschärfungsroboter organisierten. Als vor zwei Jahren in einer Washingtoner Shoppingmall ein Überwachungsroboter in einen Brunnen fiel und sich so selbst zerstörte, wurde im Internet kondoliert. Diese Geräte sahen keineswegs aus wie Menschen, auch nicht wie Tiere. Trotzdem riefen sie starke Gefühle hervor.

Wissenschaftler der Universität Duisburg-Essen verglichen 2013 mithilfe von Hirnstrommessungen, wie Menschen reagieren, wenn ihnen Videoaufnahmen von Gewalt gegen Menschen und Roboter gezeigt werden. Die Messungen ergaben: Die Testpersonen reagierten auf die Gewalt gegen Roboter zwar nicht so heftig wie auf die Darstellungen von Gewalt gegen Menschen, es wurden aber dieselben Hirnregionen angesprochen – ein Hinweis darauf, dass wir echtes Mitleid mit Maschinen empfinden können. Und wer die Knuddelroboter im MIT betrachtet, kann sich gut vorstellen, dass so ein Gerät einem Kind viel mehr ans Herz wachsen kann als irgendein Stofftier, das nie antwortet.

Knapp zehn Kilometer von der Personal Robots Group entfernt, nordwestlich von Boston, im Labortrakt der Tufts Universität, liegt das Büro von Matthias Scheutz. In diesem Raum, der wirkt wie ein etwas heruntergekommenes Lehrerzimmer, entwickelt Scheutz mit seinem Team einen Code, mit dessen Hilfe Mensch und Roboter dereinst miteinander kommunizieren sollen. Im Unterschied zum Puppenkabinett am MIT gibt es hier nur einen einzigen Roboter zu sehen, eine aufgemotzte Version des Staubsaugroboters Roomba, mit Lautsprechern und einer Kamera obendrauf. Regungslos lauert er in einer Ecke des Büros.

Scheutz, 52, Professor für Computer- und Kognitionsforschung und Informatik, ist in Österreich geboren, hat dort Philosophie studiert und sich später aufs maschinelle Lernen spezialisiert. Er mag den Begriff Social Robot nicht, sagt er, denn es vernebele die Tatsache, dass die Mensch-Roboter-Beziehung ein ungleiches Verhältnis sei: Während der Mensch für seinen Roboter Kerzen anzündet und ihm Kosenamen gibt, ist umgekehrt dem Roboter der Mensch völlig egal. Hinzu komme, sagt Scheutz, dass der Roboter seine Umwelt bislang nicht verstehe. Das werde sich aber dringend ändern müssen, wenn sich Roboter in der Umgebung von Menschen bewegen sollen. Welche Bewegungen und Aktionen im jeweils gegebenen Umfeld in Ordnung sind, sei Robotern ungemein schwer beizubringen.

Als Beispiel nennt er Amazons Sprachassistenten. "Alexa versteht nur Kommandosprache", sagt er, zwei Menschen würden so nicht miteinander reden. Bei komplexeren Aufgaben müsse ein Roboter aber auch den Kontext einer Ansage verstehen. Wenn etwa ein Roboter als Küchenhilfe mit ausgestrecktem Messer den Befehl erhält, sich vorwärts zu bewegen – tut er das auch dann, wenn ihm jemand im Weg steht? "Damit das nicht geschieht", sagt Scheutz, "muss der Roboter wissen, dass ein Mensch von einem Messer verletzt wird." Bislang bewegten sich Roboter meist in kontrollierten Umfeldern. Es besteht die Gefahr, sagt Scheutz, dass Menschen die Fähigkeiten ihres elektronischen Partners überschätzen und es so nicht nur zu Enttäuschungen, sondern auch zu unangenehmen Überraschungen komme. Es kam schon vor, dass Roombas, die über Hundehaufen fuhren, diese dann im Haus verteilten – ein Roboter hat keine Ahnung von Hundekot. In einer Amazon-Lagerhalle riss vergangenes Jahr ein Roboter eine Packung mit Bärenabwehrspray auf, etliche Mitarbeiter wurden durch das Gas verletzt. Ein Roboter hat eben keinen Begriff von Pfefferspray.

Kommentare

1 Kommentar Kommentieren

Ich wurde auch schon von einem alleinlebenden Senior gefragt, ob ich ihm nicht einen Roboter besorgen könnte. "Damit mal jemand zum Reden da ist." Eigentlich ganz schön traurig!