Navigationsgerät in einem Pkw © dpa/Tobias Hase

Zugegeben: Bis Autos wie im Film Cars miteinander sprechen, werden wohl noch ein paar Jahre vergehen. Doch mit den Fahrern klappt es schon ganz gut. Fahrer: "Ich habe Kopfschmerzen."

Auto: "Dann fahren wir zur nächsten Apotheke."

Solche Dialoge sind schon bald Standard in Neuwagen. Man muss dafür nicht mehr ins Kino gehen, denn wir werden mit unseren Autos kommunizieren: direkt, einfach und vor allem – in freier Rede. Ob der Schädel brummt, der Magen knurrt oder schnell noch ein Anruf erledigt werden muss, das Auto reagiert aufs Wort. Sprachsteuerung macht’s möglich.

Und sie wird immer wichtiger. Erstens, weil die aktuellen Systeme schon fast so zuverlässig arbeiten wie ein leibhaftiger Assistent aus Fleisch und Blut. Und zweitens, weil Fahrer moderne Autos unterwegs gar nicht anders bedienen können. Wer je versucht hat, während der Fahrt in den Untermenüs des Navigationssystems die Ansagestimme lauter oder leiser zu stellen, kennt das Problem. Es ist lebensgefährlich. Wenn Autofahrer bei Tempo 120 auf der Autobahn "mal kurz" auf den Bildschirm blicken und darüberwischen, um irgendetwas einzustellen, legt der Wagen pro Sekunde 33 Meter im Blindflug zurück. Auch Gestensteuerung, der letzte Schrei unter den neuen Bedientechniken, wird das Problem nicht lösen. Wer eine Hand vom Lenkrad nehmen und dann vor dem Armaturenbrett herumfuchteln muss, fährt nicht unbedingt sicherer. Per Sprachbefehl jedoch, darüber herrscht Einigkeit unter Experten, lassen sich im Auto auch komplexe Dinge einfach und mit vergleichsweise geringem Risiko regeln. Vorausgesetzt, der Fahrer muss nicht alles zweimal sagen.

Aktuell kommt das noch häufig vor, denn die meisten der bislang in Autos eingesetzten Spracherkennungssysteme reagieren nur auf bestimmte Kommandos, die in einer vorgegebenen Abfolge gesprochen werden müssen. Also etwa bei der Eingabe des Navigationszieles nach dem Muster: Stadt – Straße – Hausnummer. Wer jedoch eine Adresse in Aach eingeben möchte, verzweifelt – es gibt vier Orte mit diesem Namen in Deutschland. Das kostet Nerven. Spätestens nach der dritten Nachfrage der digitalen Stimme: "... meinten Sie Aachen?", wird man die Sprachsteuerung abschalten und das Ziel doch per Tasten oder Touchscreen eingeben.

Dieser Artikel stammt aus der ZEIT Nr. 6 vom 4.2.2016.

In Aachen jedoch schlägt das Herz der Programmierer. In einem hellgrauen Bürohaus zwischen Werkstätten, Burgerbrätern und Supermärkten arbeiten rund 200 Menschen daran, das Autofahrer künftig möglichst nur mit Sprache Befehle geben. "Sprache ist ein sicherer Weg, unterschiedlichste Dinge im Auto zu erledigen", sagt Nils Lenke, der Forschungschef des Unternehmens Nuance Communications, das in Aachen ein Entwicklungszentrum für Spracherkennung betreibt und dessen Spracherkennungssoftware Dragon zu den führenden Systemen dieser Disziplin zählt. In etwa 130 Millionen Autos weltweit ist schon heute ein Spracherkennungsprogramm von Nuance installiert; die jüngste Version läuft im neuen 7er BMW, der Luxuslimousine des Münchner Autobauers.

Drei Innovationen stecken in dem System, und die machen die Anwendung im Auto deutlich bequemer und einfacher: Zum einen müssen keine vorgegebenen Kommandoketten mehr beachtet werden. Wer also in die Albert-Einstein-Allee 5 in Kleinkleckersdorf möchte, sagt das einfach in einem Rutsch, und zack – ist die Zieladresse im Navigationssystem programmiert.