Noch fehlt es bei mir persönlich an ausreichend Material, um Googles großes Versprechen ausgiebig zu testen, Menschen auch über einen Alterungsprozess von Jahrzehnten hinweg identifizieren zu können. Aber zumindest die Bilder der letzten fünf Jahre ordnet Google treffsicher zu – selbst mit Schlamm im Gesicht oder als winzige Version oben rechts in dem Screenshot einer Skype-Konversation. Auch in dem Bild, das meine Nichte mir von einer Fotowand schickt, erkennt Google mich wieder, dabei ist die Aufnahme inzwischen 16 Jahre alt.

Und Google macht noch mehr. Seine Algorithmen durchsuchen die Bilder nach geeigneten Aufnahmen zum Aufhübschen, wie eben jene Bilder aus den ersten Semestern an der Uni. So spuckt der "Assistent" regelmäßig nette GIFs, Collagen oder kleine Foto-Geschichten aus, die ich auf Wunsch speichern oder bei Nichtgefallen einfach ins Abseits wischen kann. Selbst Panorama-Fotos "näht" das Programm eigenhändig aus mehreren Aufnahmen zusammen.

Schlagworte bleiben im persönlichen Datensilo

Bildern, die ihm besonders gut gefallen, verpasst der Google-Assistent einen Rahmen, eine Schwarz-Weiß-Variante oder eine Vignette. Viele davon braucht man nicht wirklich, aber die Vorschläge geben einem die Möglichkeit, längst vergessene Momente noch einmal und aus anderer Perspektive zu sehen.

Profitiert Google davon, wenn ich meine Freunde und Verwandten auf den Bildern markiere? Auf Anfrage von Wired teilte Google mit, die eigenen Schlagworte und Namen hätten keinen Einfluss auf andere Nutzer. Wer also in der App seine Freunde namentlich oder mit Spitznamen markiert, füttere damit nicht Googles Weltwissen über andere Google-Nutzer. Es sei Google wichtig, den Dienst "zu einem privaten Heim für die Fotos der Nutzer zu machen." Bei Fusion heißt es, Google werde aus den Schlagworten und Korrekturen der Nutzer lernen und seine Gesichts- und Objekterkennung verbessern.

Jetzt bleibt nur noch zu hoffen, dass Google es sich nicht irgendwann anders überlegt und ich mit meinen Fotos weiterziehen muss.