Mit Geräten zu sprechen war bislang eine Ausnahme, vorbehalten jenen Situationen, in denen der Nutzer ohnehin keine Antwort erwartete: wenn das Gerät nicht funktionierte und er es wütend beschimpfte. Doch eine Technik mit fantasievollen Frauennamen ist dabei, das zu ändern. Alexa und Cortana, Siri, Viv und ihre Schwestern hauchen Computern und Elektrogeräten etwas ein, das bislang als exklusiv menschlich galt: Konversationsfähigkeit.

Bald ist die Welt voller sprechender und hörender Maschinen. Lautsprecher, die auf Zuruf Musik abspielen. Ein Kühlschrank, den man nach Rezepten fragen kann. Sprechende Staubsauger und Waschmaschinen. Und Autos, deren Bordelektronik auf die Kommandos ihrer Fahrer reagiert. All dies war Anfang Januar bei der Elektronikmesse CES in Las Vegas zu bestaunen. Es vermittelt eine Ahnung von den vielen beredten Maschinen, die im Laufe des Jahres in Hannover auf der Cebit, in Berlin zur Funkausstellung und, ja, wohl auch auf der Frankfurter Autoausstellung präsentiert werden. Nach seinem Las-Vegas-Besuch schrieb der Reporter des Technikmagazins Wired: "Das könnte das Jahr werden, in dem man umsteigt vom Tippen und Touchscreen-Drücken auf das einfache Rufen von Befehlen." Knapper hieß es in der c’t: "Alexa war der Star der Messe."

Nun ist die Technikbranche notorisch neuigkeitsbegeistert, und viele ihrer Prognosen enden als "Vaporware" – heiße Luft. Aber diesmal lohnt sich eine genauere Betrachtung.

Denn die kommunikativen Geräte vereinen praktisch alle Informatik-Fortschritte der vergangenen Jahre zu scheinbarer Zauberei: akustische Erkennung menschlicher Sprache, inhaltliche Verarbeitung gesprochener Sätze, die Einschätzung des Kontextes und die Suche nach einer passenden Antwort, schließlich die Sprachsynthese – um das Rechenergebnis in verständliche Worte zu packen.

Dieser Artikel stammt aus der ZEIT Nr. 5 vom 26.1.2017.

Wenn Alexa wie ein neues Familienmitglied am Abendbrottisch präsent ist, wirkt das erstaunlich untechnisch. Schon hat der Barbie-Hersteller Mattel einen Digitalbabysitter auf Basis von Spracherkennung gebaut, und ein Berliner Start-up will zum Jahresende herkömmliche Autos mit sprechenden digitalen Beifahrern nachrüsten (lesen Sie dazu die Beiträge auf der nächsten Seite).

Bereits heute ist ein Preis dieser Technik klar: Bezahlt wird mit persönlichen Daten. Mit unseren bisherigen Vorstellungen von Datenschutz, ja Datensparsamkeit ist diese Währung nur schwer vereinbar. Denn die Mikrofone der neuen Mitbewohner und Beifahrer lauschen ständig, sie können sich auf unsere Worte einen Reim machen, und sie antworten uns so, wie wir es von Mitmenschen gewohnt sind. Weil sie von uns lernen.

Bis in die fünfziger Jahre lassen sich die Versuche von Informatikern zurückverfolgen, den Computern die Sprache der Menschen näherzubringen. 1954 stellte die Georgetown University zusammen mit IBM ein simples Übersetzungsprogramm vor, den Prototyp eines maschinellen Dolmetschers. Computer, das war jetzt unstrittig, ließen sich problemlos mit dicken Wörterbüchern füttern.