Tim Cook sagt nicht mehr "one more thing". Lieber sagt er betont langsam "one last thing", als er am ersten Tag der Entwicklerkonferenz WWDC den Einstieg von Apple in eine neue Gerätekategorie ankündigt: Mit dem HomePod bringt das Unternehmen seine Antwort auf Amazons Echo und Google Home auf den Markt.

Apple bezeichnet den 18 Zentimeter hohen, zylinderförmigen Lautsprecher zuvorderst als stationäres Gerät zum Musikhören, doch letztlich geht es bei Geräten dieser Art um etwas anderes. Es geht um den Einstieg in ein Zeitalter, in dem Computer weitgehend ohne Finger gesteuert werden, weil Computer nicht mehr nur Geräte mit Bildschirmen und Tastaturen sind.

In der fast zweieinhalbstündigen Präsentation stellte Apple außerdem die nächsten Generationen seiner Betriebssysteme iOS, macOS, tvOS und watchOS vor (alles dazu auf Seite 2), sowie aufgefrischte MacBooks und iMacs, einen gänzlich neuen iMac Pro und ein neues iPad Pro (nachzulesen auf Seite 3). Und immer wieder war von Siri die Rede, und von Maschinenlernen, sprich künstlicher Intelligenz (KI). Von jenen Zutaten also, die Apple braucht für das Zeitalter der conversation as an interface, wie es Microsoft-CEO Satya Nadella es vor gut einem Jahr nannte.

Siri ist kein Vehikel zum Datensammeln

Zunächst zum HomePod: Wie auch die Konkurrenzgeräte von Amazon und Google wird er ausschließlich per Spracheingabe gesteuert. Apples virtuelle Assistentin Siri wird seine Benutzeroberfläche. Sie spielt auf Zuruf Songs aus dem Onlinedienst Apple Music ab, beantwortet Fragen zu laufenden Songs wie "Wer spielt hier Schlagzeug?" und lernt aus den musikalischen Vorlieben der Nutzer.

Außerdem soll Siri über den HomePod Fragen zu Wetter, Terminen, Sportergebnissen und anderen Themen beantworten, Nachrichten verschicken und das vernetzte Heim steuern können. Für Letzteres braucht man in Apples Ökosystem bisher ein ständig angeschaltetes Apple TV.

Ein Tief- und sieben Hochtöner sowie Apples A8-Prozessor für die Berechnung des Standorts sollen in jedem Raum für beeindruckenden Klang sorgen. Sechs integrierte Mikrofone hören (zunächst ausschließlich lokal) auf das Kommando "Hey Siri", auch bei laufender, lauter Musik. Siri muss dann zwar auf Apples Server zugreifen, um Nutzerfragen zu beantworten. Die entsprechenden Daten werden jedoch Ende-zu-Ende-verschlüsselt und mit einer laut Apple anonymen Siri-ID übertragen.

349 Dollar wird der HomePod kosten

Live demonstriert hat Apple jedoch nichts von alldem. Das Gerät ist schlicht und einfach noch nicht fertig. Ausgestellt wurden lediglich zwei Prototypen. Der HomePod kommt erst im Dezember auf den Markt, und auch dann zunächst nur in den USA, Großbritannien und Australien. In den USA wird es 349 Dollar kosten, also deutlich mehr als ein Echo oder Google Home, die nur rund die Hälfte beziehungsweise ein Drittel kosten. Wann der HomePod in Deutschland zu haben sein wird und zu welchem Preis, hat Apple bisher nicht bekannt gegeben. Sicher ist nur, dass es frühestens 2018 soweit sein wird.

Unausgesprochen blieb auch, was Entwickler tun können, um den HomePod attraktiver zu machen. Dabei hat Apple in dieser Hinsicht einiges aufzuholen. Zwar gibt es Siri schon seit 2011, also deutlich länger als Amazons Alexa, Microsofts Cortana, Googles Assistant und Samsungs Bixby. Siri spricht und versteht außerdem 21 Sprachen, wovon die Konkurrenz nur träumen kann.

Allerdings steht Siri im Ruf, im Alltag viele Befehle und Anfragen nicht oder falsch zu verstehen und bei Folgefragen immer wieder Probleme zu haben. Die Öffnung für externe Entwickler vor einem Jahr war zudem nur eine Teilöffnung, beschränkt auf bestimmte Funktionen in bestimmten Arten von Apps. Nun wird die Liste der möglichen Anwendungen ein wenig erweitert, Siri soll künftig zum Beispiel auch Bankgeschäfte inklusive Überweisungen abwickeln können.

Amazon vertraute von Anfang an stärker auf die Ideen externer Programmierer, weshalb es nach nicht einmal zwei Jahren schon etwa 10.000 sogenannte Skills – also sprachgesteuerte Apps – für Alexa gibt. Außerdem gibt sich Amazon Mühe, die Assistentin menschlicher klingen zu lassen. Sie kann mittlerweile sogar flüstern und intonieren. Immerhin: Zumindest auf dem Mac kann Siri Wörter nun auch unterschiedlich betonen, weil die KI im Hintergrund lernt, Kontexte besser zu erkennen. Für conversation as an interface wird so etwas wichtig.

Doch möglicherweise sieht Apple dieses Zeitalter noch nicht wirklich gekommen und hält sich mit allzu steilen Aussagen zu seiner KI und ihrem Potenzial deshalb weitgehend zurück. CEO Tim Cook spricht ohnehin lieber über Produkte, die in sehr naher Zukunft marktreif werden – und nicht irgendwann vielleicht einmal. Sehr viel detaillierter verliefen deshalb die Präsentationen der anderen Apple-Neuheiten.