Wer am Mittwochabend die Keynote zum Auftakt von Googles Entwicklerkonferenz I/O verfolgte, fühlte sich an einer Stelle ins vergangene Jahrzehnt zurückversetzt. Ende 2009 präsentierte Google mit Goggles eine Anwendung, die Aufnahmen von der Smartphone-Kamera in Echtzeit mit Googles Suchergebnissen verknüpfte: Wer beispielsweise ein Filmposter fotografierte, bekam im besten Fall Infos zum Film angezeigt.

Jetzt, acht Jahre später, stellt Google ein Produkt namens Lens vor. Es funktioniert prinzipiell wie Goggles: Kamera draufhalten, Informationen erhalten. Was aber nicht heißt, dass dem Unternehmen die Ideen ausgehen. Vielmehr ist Google erst jetzt an einem Punkt angelangt, an dem die Technik wirklich sinnvoll einsetzbar ist. Neue Entwicklungen aus den vergangenen Jahren ermöglichen, die Welt durch den Sucher unserer Smartphonekamera neu zu betrachten. Die Kamera wird somit zu einem wichtigen Bestandteil in Googles Vision vom Betriebssystem der Zukunft: Ein System, in dem es nicht nur über Eingaben im Browser und Apps möglich ist, Informationen zu erhalten.

Lens wird zunächst als ein Teil von Googles Sprachassistent Google Assistant ausgeliefert. Der wiederum steckt inzwischen nicht nur im sprachgesteuerten Lautsprechersystem Google Home und in Googles Pixel-Smartphone, sondern ist auch für andere aktuelle Android-Smartphones verfügbar und kommt demnächst als App auf das iPhone. Das gab Google ebenfalls auf der I/O bekannt. Google Assistant soll wie Apples Siri und Amazons Alexa nach und nach aus den Daten und dem Verhalten der Nutzer lernen und ihnen somit immer bessere Informationen und Hilfeleistungen anbieten können.

Die Kamera liefert den Input, Google die Infos

Im Fall von Lens sieht dieser Mehrwert folgendermaßen aus: Die Nutzer öffnen Lens aus dem Google Assistant heraus und nehmen Bilder und Videos in Echtzeit auf. Oder sie lassen Lens nachträglich die bereits aufgenommenen Bilder auf dem Smartphone analysieren. Die Software versucht anschließend, passende Informationen zu finden.

Während der Präsentation am Mittwochabend zeigte Google-CEO Sundar Pichai in einem Video, wie Lens beispielsweise eine Blume untersucht. Die Software erkennt sowohl die Blume, als auch die Gattung und schlägt Tipps zur Pflege und einen Floristen in der Nähe vor. In einem zweiten Beispiel fotografiert der Nutzer einen Straßenzug und Lens liefert die Öffnungszeiten der ansässigen Geschäfte und die Speisekarten der Restaurants. In einem dritten Beispiel genügt es, den Barcode auf der Rückseite eines Routers einzuscannen, um das Smartphone automatisch mit dem WLAN zu verbinden (solange das Standardpasswort verwendet wird).

Wer fremdsprachige Straßenschilder fotografiert, bekommt in Echtzeit eine Übersetzung geliefert (bekannt aus Google Translate), wer ein Konzertplakat mit Datum aufnimmt, kann dieses gleich in seinen Kalender einfügen. Die Kontaktdetails einer abfotografierten Visitenkarte landen automatisch im Adressbuch. Für fotografierte Produkte ploppen Onlineshops und Vergleichspreise zur Auswahl auf, und vermutlich dauert es nicht lange, bis auch Lens – wie Amazons Echo Look – die Klamottenauswahl der Nutzer bewerten kann.

So gut das aussieht und klingt – wirklich revolutionär wirkt das erstmal nicht. Die Idee, Kamerabilder in Echtzeit mit Informationen anzureichern, ist weder bei Google noch anderen Herstellern wie Samsung neu. Doch der erste Eindruck trügt. Denn bislang handelte es sich bei den meisten mutmaßlich smarten Kamera-Anwendungen um Konzepte, die in der Praxis mehr schlecht denn recht funktionierten. Das könnte sich bald ändern, was vor allem an drei Entwicklungen liegt.