Wearables : Was nach dem Touchscreen kommt

Ob Smartwatch oder Google Glass: Die Computer der Zukunft werden immer kleiner – aber wie sollen sie bedient werden? Chris Harrison hat dazu viele ungewöhnliche Ideen.
OmniTouch, eine Erfindung von Chris Harrison, macht beliebige Oberflächen zum Touchscreen. © Microsoft Research / Carnegie Mellon University

Die Oberen des Springer-Verlags waren ganz aus dem Häuschen: "Großartig!", schrieb Bild-Chefredakteur Kai Diekmann vergangene Woche bei Twitter aus Kalifornien, "eine virtuelle Tastatur, projiziert auf den Tisch! Funktioniert einwandfrei!" Und Springers Cheflobbyist Christoph Keese schrieb zwei Tage später, auch er habe die "grandiose Laser-Tastatur" auf der Stanford-Messe entdeckt.

Was die beiden so verzückt, ist der Magic Cube der Firma Celluon. Der tut genau das, was Diekmann beschreibt. Der kleine Kasten projiziert eine rötlich schimmernde virtuelle Tastatur auf eine ebene Oberfläche. Mit ihr lassen sich Smartphones und Tablets bedienen, deren Touchscreens unpraktisch sind, um darauf längere Texte zu schreiben.

Was Diekmann und Keese offenbar nicht gewusst haben: Der Magic Cube ist alles andere als neu. Eine erste Version kam bereits vor acht Jahren in den Handel, damals noch unter der Bezeichnung Laserkey CL800BT. Mittlerweile gibt es viele weitere Ideen, wie mobile Geräte in Zukunft bedient werden können. Chris Harrison hat Dutzende. Menschen wie er suchen die Antwort auf eine knifflige Frage: Wenn Computer immer kleiner werden, wie benutzen wir sie dann?

Harrison ist Doktorand im Human Computer Interaction Institute der Carnegie-Mellon-Universität in Pittsburgh, Pennsylvania. Er entwickelt neue Eingabe- und Interaktions-Methoden für IBM, AT&T und Microsoft. Besonders der Konzern aus Redmond könnte seine Hilfe gut gebrauchen: Angeblich arbeitet Microsoft an einer Smartwatch, wie sie Sony und Pebble bereits verkaufen und andere sie zumindest schon entwickeln.

Zwei große Probleme bringen solche und andere Wearables mit sich, Computer also, die wie Kleidungsstücke oder Accessoires getragen werden: Sie haben wenig Platz für kräftige Akkus und eine Bedienungsoberfläche. "Der Bildschirm ist zu winzig für Touch-Oberflächen, wie wir sie von Smartphones kennen", sagt Harrison. Und auch Sprachsteuerung sei kein Allheilmittel: "Das funktioniert gut, um Informationen nachzuschlagen. Aber Spracheingaben können umstehende Menschen stören und sind nicht gerade ideal, um zum Beispiel auf einer Karte zu navigieren."

Der 28-Jährige denkt deshalb über neue Wege nach, (zu) kleine Oberflächen virtuell zu vergrößern oder gleich ganz zu ersetzen. Touché heißt eines der Projekte, an denen Harrison mitgearbeitet hat. Es erweitert die bekannte binäre berührungsempfindliche Steuerung: Ein Smartphone-Bildschirm wird berührt oder nicht berührt. Bei Touché hingegen erkennt ein Sensor auf mehreren Frequenzen die elektrischen Signale, die entstehen, wenn man eine kapazitativen Oberfläche berührt. So entsteht ein komplexeres Bild, das in mehrere verschiedene Reaktionen übersetzt werden kann. Liegt der Sensor beispielsweise am menschlichen Handgelenk an, erkennt er, mit wie vielen Fingern er berührt wird oder welche Position die Finger haben. Diese Information muss dann nur noch zu einem Smartphone oder MP3-Player übertragen werden. Dann lässt sich das Gerät bedienen, ohne dass es selbst angefasst werden muss. Es reicht, das Handgelenk mit einem oder zwei Fingern anzutippen oder mit der Hand zu umschließen. In einem Video zeigen Harrison und seine Kollegen, wie das in der Praxis aussehen könnte.

Flexibler als der Magic Cube

Ein anderer Ansatz ist OmniTouch, das Harrison für Microsoft entwickelte. Der Prototyp besteht aus einem Kinect-Sensor und einem Pico-Projektor, die zusammen auf der Schulter getragen werden. OmniTouch projiziert Tastaturen, den Ziffernblock eines Smartphones oder auch Dokumente, die auf einem mobilen Gerät geöffnet werden, auf eine beliebige Oberfläche. Das muss keine Tischplatte sein, OmniTouch funktioniert zum Beispiel auch auf der Handfläche, auf dem ganzen Arm oder an jeder Wand. Mit dem Finger kann der Benutzer dann einzelne Schaltflächen auswählen, Texte tippen, zeichnen oder Textpassagen markieren. Der Kinect-Sensor erkennt die dreidimensionalen Bewegungen der einzelnen Finger.

Der Prototyp ist allerdings viel zu groß. Könnte die Technik verkleinert und in ein Gerät wie Google Glass integriert werden, wäre sie eine Erweiterung dessen, was Celluons Magic Cube kann.

Möglich wäre auch, die winzigen Benutzeroberflächen wie die einer Smartwatch virtuell zu vergrößern. Vor drei Jahren bereits stellte Harrison sein Konzept Abracadabra der Öffentlichkeit vor: Er setzte ein Magnetometer in eine Smartwatch und einen kleinen Magneten auf seinen Finger.

Verlagsangebot

Hören Sie DIE ZEIT

Genießen Sie wöchentlich aktuelle ZEIT-Artikel mit ZEIT AUDIO

Hier reinhören

Kommentare

10 Kommentare Seite 1 von 2 Kommentieren