Am Anfang steht dabei die Umwandlung des gesprochenen Satzes in eine Klangdatei, die in kleine Abschnitte zerhackt und nach bekannten Lauten untersucht wird. Weil längst nicht alle Laute erkannt werden, ist ein weiterer Schritt notwendig. Mit der sogenannten Hidden-Markov-Methode rechnet der Spracherkenner aus, welcher Laut einem anderen wahrscheinlich folgt und welcher wiederum danach kommen könnte. So entsteht eine Liste von möglichen Wörtern, mit denen in einem zweiten Durchlauf das passiert, was vorher mit den Buchstaben geschah: Der Rechner analysiert die Wahrscheinlichkeit, mit der ein bestimmtes Wort einem anderen folgt – nach "Ich gehe nach..." kommt eher "Hause" als "Brause" oder "Pause". Das aber kann der Computer nur wissen, wenn er sehr viele gesprochene Sätze kennt und weiß, wie oft und in welchem Zusammenhang die Wörter vorkommen.

Eine solche Rechenaufgabe übersteigt die Prozessorfähigkeiten eines hosentaschenkleinen Handys. Lösbar ist sie nur durch das Cloud-Computing . Darunter versteht man das Auslagern schwieriger Rechenoperationen an Großcomputer. Das Handy nimmt den Sprachbefehl auf, wandelt ihn in eine Tondatei um, schickt diese übers Internet ans Rechenzentrum und lässt sie dort von einem Riesencomputer analysieren. Anschließend kommt das Ergebnis übers Netz wieder ans Handy zurück. Die immense Rechenpower, die riesigen Datenbanken, die per Cloud-Computing vorgehalten werden, ist das eigentliche Geheimnis hinter dem Erfolg der neuen Spracherkenner im Gefolge von Siri.

Was beim Smartphone und im Wohnzimmer praktisch ist, hat im Auto noch mehr Sinn – schon aus Sicherheitsgründen. Am Steuer einen Touchscreen zu bedienen, um eine MP3-Datei auszuwählen, ist nicht nur kompliziert, sondern auch gefährlich. Mit Spracherkennung ist auch das kein Problem mehr. "Spiel Coldplay" – solche einfachen Anweisungen verstehen manche Autos schon heute. Auch Eingaben ins Navigationsgerät können bei Geräten der Oberklasse bereits jetzt per Sprachbefehl erfolgen .

Bei Nuance arbeitet man bereits an der nächsten Generation der Auto-Elektronik, bei der man per Spracheingabe auch komplizierte Texte schreiben, soziale Netzwerke nutzen und Suchmaschinen befragen kann, ohne seine Aufmerksamkeit von der Fahrbahn abwenden zu müssen. "Die Leute kennen Siri oder Dragon Dictation und erwarten nun auch von anderen Geräten, dass sie sie verstehen", sagt Fatima Vital, bei Nuance Fachfrau für Spracherkennung in Autos. In ihrer Hand wiegt sie einen großen, silbernen Knopf. Er soll später einmal in ein Auto eingebaut werden, ein Druck auf ihn signalisiert dem Fahrzeug: Hör zu!

Fatima Vital setzt ein Headset auf, das sie nur zu Demonstrationszwecken trägt – später, im echten Auto, wird es nicht mehr nötig sein –, und diktiert eine E-Mail. Der erkannte Text erscheint fehlerlos in extrem großen Buchstaben auf einem ebenfalls großen Display, das einmal ins Armaturenbrett integriert sein soll. Wenn sie mit einer Passage nicht zufrieden ist und beispielweise sagt: "Replace ›message‹ by ›documents‹!" , dann wird der Text prompt entsprechend korrigiert. Künftig, meint Vital, wird man im Auto auch das eingebaute Handbuch fragen können: "Auf welcher Seite befindet sich noch mal der Tankdeckel?" Und bekommt die Antwort gesagt. Oder man fragt: "Wo finde ich in der Nähe die billigste Tankstelle?" Und schon ist das Ziel im Navi programmiert.

In den USA fahren bereits seit dem vergangenen Sommer die ersten Fords mit eingebautem "Sync"-System . Sagt man einem Sync-Ford: "Ich habe Hunger", dann werden nach einer kurzen Internetrecherche die Adressen der nächstgelegenen Restaurants vorgelesen. Außentemperatur, die nächstgelegene Werkstatt oder Apotheke – all das kennt das Auto, das dank GPS stets weiß, wo es sich befindet. Bislang gibt es Sync-Fords nur mit englischem Programm, Deutsch wird ihnen gerade beigebracht. 2012 sollen die ersten auch hier fahren.

Andere Hersteller feilen noch an maßgeschneiderten Konzepten für ihre Flotten. So wie Siri für das Telefon müssen die passenden Charaktere für die einzelnen Autotypen entwickelt werden. "Ein 7er BMW muss natürlich ganz anders sprechen als ein Mini", sagt Christian Süß , der Sprachverarbeitungssysteme für die BMW Group entwickelt. Gut möglich also, dass der deutsche Autofahrer sein liebstes Stück in Zukunft nicht mehr nur waschen, pflegen und tunen kann, sondern endlich auch mit ihm reden – wie einst David Hasselhoff mit seinem schwarzen Pontiac K.I.T.T. in der TV-Serie Knight Rider . Dann kann er sich im Stau neu eingetroffene SMS, Mails, Blog-Einträge und Facebook-News von seinem Toyota oder BMW vorlesen lassen. Und Manta-Witze, wenn sich mal wieder ein Opel-Fahrer riskant in seine Spur drängt.