Das Wörterbuch "Mensch-Maschine" wird dicker – Seite 1

"Bevor Sie ein Feuer machen, lockern Sie zuerst die Schrauben G und N, die bei den zwei kleineren Dampfkesseln und bei den Löchern L. Den großen Dampfkessel zu zwei Drittel mit Wasser befüllen und D, den kleinen Dampfkessel, gut füllen. Ziehen Sie dann die genannten Schrauben so fest wie nur irgend möglich. Dann entzünden sie das Feuer bei B."

So beginnt die Bedienungsanleitung des Miner's Friend, der ersten Dampfmaschine aus dem Jahre 1698. Es folgen auf sieben Seiten detaillierte Instruktionen und Kniffe, wie die Maschine zu justieren ist. Der Inhalt dieses dokumentierten Mensch-Maschine-Gesprächs ist einfach, es sind im Wesentlichen vier Befehle: Geh an! Geh aus! Gib mehr Kraft! Gib weniger Kraft!

Für vier Befehle sind sieben Seiten viel Papier. Heute sind Maschinen zwar weit komplexer als die Miner's Friend. Mit den meisten von ihnen kommuniziert der Mensch dennoch weiter per Hand: durch tippen, drücken, doppelklicken, scrollen und streichen.

Das mobile Internet hat die Mensch-Maschinen-Sprache verändert

Aber das Mensch-Maschine-Vokabular wächst zur Zeit gewaltig. Die Entwicklung begann nicht zuletzt in Cupertino, Kalifornien, am Sitz von Apple. Im Juli 2004 beantragten die Entwickler dort ein Patent für Multi-Touch-Gesten. Das sind Gesten, bei denen der Nutzer mehrere Finger benutzt, um Befehle auf einem Touchscreen auszuführen.

Apple entwarf in dieser Zeit die ersten iPhones. Die sollten einen Touchscreen, also ein berührungsempfindliches Display, bekommen. Üblich waren bis dato eine Nummerntastatur und ein paar Menütasten, um ein Handy zu steuern. Gleichzeitig war und ist das iPhone nicht nur ein Mobiltelefon, sondern ein Computer. Mit anderen Worten: Auch ohne Tasten musste es irgendwie die Funktionalität eines normalen Heim-PCs mit Tastatur und Maus bieten.

Multi-Touch-Gesten sind inzwischen pipieinfach

Noch recht naheliegend war es, die Tastatur einfach auf das Display zu übertragen. Das ermöglichte Tippen ohne echte Tasten. Als Maus-Ersatz entwickelte Apple die Fingergesten für den Touchscreen. Inzwischen gibt es für nahezu jeden Befehl eine entsprechende Multi-Touch-Geste. Die grundlegenden Gesten von Apple sind mittlerweile Quasi-Standards bei der Bedienung jedes mobilen Geräts. Schon Kleinkinder erlernen sie schnell. Sie wischen mit ihren Fingern zwischen den Bildschirmfenstern oder zoomen in eine Karte, indem sie die Finger auseinanderspreizen.

Multi-Touch-Gesten sind aber erst der Anfang. Und es ist noch immer eine manuelle Eingabemethode, nur abstrakter als das Festziehen der Schrauben einer Dampfmaschine. Eine neue Ebene der Befehlseingabe kam mit der verbalen Kommunikation hinzu. Nutzer können Smartphones heute regelmäßig mit Sprach-Assistenten wie Apples Siri oder Microsofts Cortana bedienen. Der nächste Schritt wird mit Robotern kommen.

Roboter müssen vielseitig und sozial kommunizieren können

Roboter sind nicht nur die Klischee-Blechkisten oder zweibeinigen Spielzeuge. Sie sind Autos, Häuser, Fabrikarbeiter, Packesel und Krankenschwestern. Mit der Vielfalt der Einsatzgebiete wachsen auch die Ansprüche an die Mensch-Maschine-Kommunikation. Ein Therapie-Roboter muss nicht nur andere Aufgaben bewältigen als ein Industrie-Roboter. Er muss auch anders mit den Menschen in seinem Umfeld kommunizieren.

Neben manuellen und verbalen Eingaben kommen künftig auch Mimik, Gestik, Emotionen und Gehirnströme als Kommunikationsebenen hinzu. Das neue Vokabular dient dabei nicht immer dazu, den Austausch zwischen Nutzer und Roboter inhaltlich zu erweitern. Es ist oft schlicht eine Anpassung an die Umwelt, in der ein Roboter agiert. Beispiel: Dem Roboter in der lauten Fabrikhalle nützen die Sprachbefehle seiner Nutzer wenig. Ein sozialer Roboter, wie der Therapie-Robbe Paro, wird seinerseits ohne die Reaktion auf Berührung nicht auskommen.

Am neuen Wörterbuch Mensch-Maschine arbeiten Wissenschaftler und Unternehmen gleichermaßen. Impulse könnten dabei vor allem aus der Gestenforschung kommen. Eine der wenigen Gestenforscher in Deutschland ist Ellen Fricke. Sie forscht an der Technischen Universität Chemnitz darüber, wie Menschen mit Handbewegungen kommunizieren. Im Juli 2014 sprach Fricke aber auch auf dem Future Talk Robotik von Mercedes.

Wie kommuniziert eigentlich ein autonom fahrendes Auto?

Denn Gesten könnten in Zukunft auch die Kommunikation mit autonom fahrenden Autos ermöglichen. Google und traditionelle Autohersteller wie Mercedes-Benz arbeiten bereits an solchen Fahrzeugen. Die können sich selbstständig einen Parkplatz suchen oder als Lastwagen pausenlos Waren über die Straßen chauffieren.

Neben dem rechtlichen und dem moralischen Rahmen müssen Menschen für den Umgang mit den fahrenden Robotern auch eine Sprache finden. Denn zwangsläufig wird es zu Situationen kommen, in denen sich Fußgänger, Radfahrer und Autofahrer mit dem autonom fahrenden Auto abstimmen müssen, sei es am Zebrastreifen oder an einer gleichberechtigten Kreuzung. Dann muss das Auto signalisieren können, dass es autonom fährt, den anderen Verkehrsteilnehmer gesehen hat und vielleicht gar eine Aktion ankündigen.

Software erkennt soziale Signale

Eine manuelle Befehlseingabe scheidet aus. Durch den Straßenlärm ist auch eine Kommunikation mittels Sprache nur eingeschränkt möglich. Hier kommen die Gesten ins Spiel. Fricke sagte auf der Robotik-Konferenz: "Wenn man Gesten als Möglichkeit betrachtet, mit autonomen Autos zu kommunizieren, dann müssen wir untersuchen, welche Gesten des Alltagsgebrauchs dafür geeignet sind." Das könnten laut Fricke geläufige Gesten wie die für "Halt" (Handfläche nach vorn gestreckt) oder "Weg" (Hand wischt vom Körper nach vorn) sein. Ob sich diese Gesten am Ende auch international durchsetzen, ist aber offen.

Das Londoner Unternehmen This Place hat noch einen anderen Kommunikationsweg zwischen Mensch und Maschine aufgetan. Seine App MindRDR misst mithilfe eines Neuro-Sensors an der Stirn des Nutzers dessen Gehirnströme. Ist der Nutzer besonders konzentriert, löst MindRDR eine angeschlossene Kamera aus – Menschen können also mit reiner Gedankenkraft ein Foto schießen. Das Unternehmen hat mittlerweile 18 verschiedenen Hirnfrequenzen identifiziert, die als Befehle fungieren könnten. Eine ähnliche Technik wird auch bei gedankengesteuerten Prothesen eingesetzt.

Der Roboter als Familienmitglied – Jibo läutet den Testlauf ein

Noch werden viele der neuen Sprachtechniken einzeln eingesetzt. Forscher an der TU München haben die Mensch-Maschine-Kommunikation auf eine breitere Basis gestützt: Im Semaine Project arbeiteten sie bis 2010 daran, einen Assistenten zu schaffen, mit dem sich Probanden unterhalten können. Grundlage der Kommunikation ist dabei ein Bündel aus Mimik-, Ton- und Spracherkennung.

Das Ergebnis ist ein virtuelles Gegenüber. Es kann soziale Signale des Menschen erkennen, auf Emotionen schließen und darauf reagieren. Björn Schuller leitete das Projekt an der TU München. Mittlerweile wird die Technik auch beim ASC-Inclusion-Projekt eingesetzt. "Das Projekt kann autistischen Kindern helfen, soziale Signale ihrer Mitmenschen besser zu erkennen und darauf zu reagieren", sagt Schuller.

Auch erste Unternehmen versuchen, Roboter mit diesen Fähigkeiten zu verkaufen. Ein sozialer Roboter namens Jibo läutet dabei den wirtschaftlichen Testlauf für den Massenmarkt ein. Die MIT-Professorin Cynthia Breazeal hat den äußerlich an eine Schreibtischlampe erinnernden Jibo entwickelt und fährt gerade eine sehr erfolgreiche Crowdfunding-Kampagne zur Finanzierung der Produktion. In einem Werbevideo liest Jibo Kindern Geschichten vor, erinnert an Termine und schießt Familienfotos. Vor allem aber kommuniziert er authentisch, menschlich und charmant mit der Familie.

Ende 2015 soll Jibo ausgeliefert werden. "Dann könnte sich zeigen, ob Menschen heutzutage wirklich bereit sind, mit Maschinen menschlich zu kommunizieren. Oder ob sie lieber an einer Dampfmaschine herumschrauben, als mit einer noch so charmanten Schreibtischlampe zu sprechen.