Die Dame wirkt ganz sympathisch. Mit etwas unsicheren Schritten stakst sie auf die Bühne und sagt: »Guten Tag allerseits.« Dann schaut sie ihren Chef an. »Überraschung«, flüstert der. Sie breitet erwartungsvoll die Arme aus und reißt die Augen auf. Keine schlechte Reaktion. Die neue Mitarbeiterin, die das japanische Institut für fortgeschrittene Wissenschaft und Technik (AIST) vor zwei Wochen der Öffentlichkeit präsentierte, ist schließlich kein Mensch, sondern der Roboter HRP-4C.

»Noch vor zehn Jahren hielten viele es für völlig unmöglich, Robotern das Laufen beizubringen«, sagt Uwe Beyer, der am Fraunhofer-Institut für intelligente Analyse- und Informationssysteme bei Bonn an adaptiven Robotern forscht. »Heute ist das fast schon Standard.« Auch bei der Entwicklung von Armen, Händen und dem gefühlvollen Greifen sei es in jüngster Zeit massiv vorangegangen. Wie HRP-4C zeigt, hat sich auch die Kommunikation, verbal wie nonverbal, verbessert. Vor allem aber werden Roboter lernfähiger – kurz: den Menschen ähnlicher. Das Fernziel sorgt bei einigen für Unbehagen: Sie sollen bald in der alltäglichen Umgebung des Menschen eingesetzt werden.

Schon in fünf Jahren kämen die ersten intelligenten Pflege- und Haushaltsroboter auf den Markt, behauptet das japanische Handelsministerium. Auch in Deutschland wird intensiv daran gearbeitet, Roboter fit zu machen für die Integration in die Gesellschaft. Der Bedarf an Maschinen, die sich auf den Menschen einstellen können, wächst: »Unsere Gesellschaft altert weiter«, betont Beyer. Der Satz ist das neue Mantra der Roboteringenieure. Im Jahr 2035 wird voraussichtlich jeder dritte Deutsche älter als 60 Jahre sein. Gleichzeitig ist es alten Menschen immer wichtiger, lange unabhängig zu Hause zu leben – notfalls mit technischer Unterstützung im Haushalt.

Das Bundesministerium für Bildung und Forschung (BMBF) fördert die Entwicklung »altersgerechter Assistenzsysteme« in den nächsten drei Jahren mit 125 Millionen Euro. Es baut darauf, dass die elektronischen Hilfen die Kosten im Gesundheits- und Pflegebereich senken. Allerdings, räumt Uwe Beyer ein, seien die Deutschen weniger roboteraffin als die Japaner.

Sandra Hirche arbeitet daran, dass sich das ändert. Am Münchner Exzellenzcluster Cognition for Technical Systems, kurz CoTeSys, forscht die Elektroingenieurin an der Kommunikation zwischen Mensch und Maschine. »Die Funktionen von Robotern werden so komplex, dass ein einfacher Touchscreen zur Bedienung nicht mehr ausreicht«, sagt sie. Zusammen mit Psychologen und Kommunikationsforschern versucht sie, Quellen von Missverständnissen zwischen Mensch und Roboter zu beseitigen. Die Maschine soll künftig nicht nur Befehle hören, sondern auch Gesten wie Nicken und Zeigen verstehen. Außerdem trainieren Sandra Hirche und ihre Kollegen Roboter darauf, Gesichtsausdrücke richtig zu deuten: Der Roboter muss das Lächeln seines Halters als Bestätigung und die wütende Grimasse als Kritik deuten und sein Verhalten entsprechend anpassen.