Songs vor- und zurückskippen: Das funktioniert auf Googles neuem Smartphone Pixel mit Gestensteuerung, egal ob die Bildschirmsperre aktiv ist oder nicht. © ZEIT ONLINE

Ich sitze am Tisch und meine Hand schwenkt über das ausgeschaltete Display eines Smartphones, einmal von links nach rechts, dann wieder in einem lässigen Schwung zurück. Der Musikplayer springt zum nächsten Song und dann wieder zum vorherigen. Ich probiere es noch einmal: Wische ich nach links, gehe ich ein Lied zurück, wische ich nach rechts, ertönt ein neues. Die Bedienung geschieht wie von Geisterhand, aber natürlich steckt dahinter Physik, genauer: Radar.

Kürzlich präsentierte Google sein neues Pixel-Smartphone und mit ihm eine neue Art der Gestensteuerung. Im oberen Displayrand, neben der Selfiekamera, steckt ein kleiner Radarsensor, der Bewegungen in einem Umkreis von etwa 30 Zentimetern um das Smartphone erkennt. Ist die "Motion Sense" genannte Technik aktiviert, können die Nutzerinnen und Nutzer des Pixel 4 Lieder überspringen, Anrufe ablehnen und Wecker ausstellen – und das alles, ohne den Bildschirm berühren zu müssen. Drüberwischen genügt. 

Für Google gehört diese berührungslose Interaktion zur Vision des ambient computing: zu jener Technologie, die uns stets begleitet, stets um uns herum ist. So wie die Sprachsteuerung dank smarter Lautsprecher und virtueller Assistenten inzwischen allgegenwärtig ist, könnten als Nächstes berührungslose Gesten viele Bereiche unseres digitalisierten Alltags bestimmen. "Geräte und Dienste arbeiten zusammen, und zwar so unauffällig, dass sie in den Hintergrund verschwinden", sagte Googles Hardware-Chef Rick Osterloh während der Vorstellung des neuen Smartphones.

Anders gesagt: Um die Computer, Handys, Fernseher und Autos der Zukunft zu bedienen, müssen wir sie vielleicht nicht einmal mehr anfassen. Sie wissen anhand unserer Bewegungen, wann wir das Radio an- und ausschalten, den Sender wechseln oder das Licht dimmen wollen. Ihre Bedienung ist so beiläufig wie das Verjagen einer Fliege.

Die Technik aus "Minority Report" gibt es längst

Wer von Gestensteuerung liest, denkt möglicherweise sofort an eine Szene aus dem Science-Fiction-Film Minority Report (2002): Tom Cruise zieht zwei leuchtende Handschuhe an, wirbelt mit den Händen in der Luft herum und schiebt so Fotos und Fenster auf einem riesigen Bildschirm hin- und her. Der Film wurde nicht nur in Kultur-, sondern auch Technikkreisen diskutiert, denn manche der gezeigten Technologien waren einerseits futuristisch, wirkten aber andererseits so plausibel, als stünden wir kurz davor, unseren Fernseher mit Handbewegungen anstelle der Fernbedienung zu steuern.

Paul Chojecki lacht, wenn er auf Minority Report angesprochen wird. Er ist Projektleiter der Forschungsgruppe Berührungslose Mensch-Computer-Interaktion am Fraunhofer Heinrich-Hertz-Institut in Berlin. "Vor zehn Jahren noch konnte man mit dem Film jeden abholen, für die jüngere Generation ist Iron Man vielleicht ein besseres Beispiel, um zu erklären, was wir machen", sagt er. Denn auch Tony "Iron Man" Stark hat seine eigene Gestensteuerung entwickelt, und auch wenn die Menschheit noch nicht ganz so erfinderisch ist wie der Superheld, gibt es die dargestellte Technik bereits in Ansätzen.

Ein von der Nasa entwickeltes VR-System mit einem Datenhandschuh, circa 1990. © Nasa

Tatsächlich gab es sogenannte Cyber- oder Datenhandschuhe lange vor Minority Report. Schon 1976 entwickelten Wissenschaftler des Electronic Visualization Laboratory an der Universität von Chicago den Sayre Glove, mit dem sich Schieberegler per Handbewegung bedienen ließen. In den Achtziger- und Neunzigerjahren folgten weitere Produkte, unter anderem Nintendos legendärer (und legendär erfolgloser) Power Glove, mit dem man Games per Handbewegungen spielen konnte, und der CyberGlove, der bis heute weiterentwickelt wird.

In den vergangenen Jahren stellten Unternehmen weitere Entwicklungen für den Privathaushalt vor. Leap Motion verkauft einen kleinen Sensor für die Erkennung von Handbewegungen, ein Start-up aus Japan erfand einen Ring, der Fingerbewegungen verfolgen kann, um damit etwa das Smart Home zu steuern. Autohersteller von Volkswagen bis BMW experimentieren ebenfalls mit Gestenerkennung. Sie sollen die Bedienung von Radio und Navigationssystemen so vereinfachen, dass die Fahrerinnen und Fahrer weniger abgelenkt sind. Und dann sind da noch die Entwicklungen aus der Gaming-Branche: Microsofts Kinect etwa, die Spielekonsole Nintendo Wii und VR-Systeme, also Datenbrillen, die ihre Träger in eine virtuelle Realität versetzen.