Computer sind doof und Menschen sind schlau, zumindest wenn es um Gefühle und Emotionen geht. Maschine und Software erfüllen ihren Zweck, sie tun das gut und immer besser. Unser Smartphone kann an Termine erinnern. Amazons Alexa erzählt auf Befehl Witze und wünscht süße Träume. Netflix weiß aus Erfahrung, dass manche Nutzer gerne Liebesfilme gucken. Aber es weiß nicht, dass einige von ihnen nach dem Abspann weinen, weil der Lieblingsmensch sie kürzlich abserviert hat und plötzlich alles doof und grau erscheint. Noch nicht.

Glaubt man Wissenschaftlern, Zukunftsforschern und Designern auf der SXSW-Konferenz in Austin, ist es nur noch eine Frage der Zeit, bis der Kühlschrank merkt, dass wir gerade traurig sind, und uns mit einer Extraportion Eiscreme aufheitern möchte. Mehrere Vorträge in diesem Jahr beschäftigen sich mit der Frage, wie diese emotional intelligenten Maschinen aussehen könnten – und welche Regeln sie beachten müssen.

"Wir nähern uns der Rechnerallgegenwart", sagt Sophie Kleber. Sie ist Executive Director für Innovation in der New Yorker Agentur Huge und spricht in Austin über Computer, die nicht bloß das tun, was ihre Besitzer von ihnen erwarten. "50 Jahre lang war der Computer nichts weiter als ein Terminal, vor dem wir saßen", sagt Kleber. Nun würden sich gleich mehrere Entwicklungen überschneiden: Der Aufstieg von maschinellem Lernen im Bereich der künstlichen Intelligenz, die Akzeptanz von Wearables und des Internets der Dinge sowie immer bessere Spracherkennung beschleunigten die Entwicklung des sogenannten affective computing, des gefühlvollen Rechnens.

Einfühlsame Technik ist der nächste Schritt

Der Begriff stammt von der Elektroingenieurin Rosalind Picard, die ihn 1995 in einem gleichnamigen Arbeitspapier am MIT in Cambridge verwendete. Affective computing beschreibt im weitesten Sinne Systeme und Geräte, die menschliche Gefühle erkennen, interpretieren, verarbeiten und simulieren können. Oder einfacher gesagt: Es geht um Technik, die weiß, wie wir uns gerade fühlen, und darauf entsprechend reagiert.

In Literatur und Film ist dieses Konzept mindestens so alt wie der Computer selbst, man denke nur an Roboter von HAL 9000 bis Baymax. Dass es nun auf einer Konferenz wie dem SXSW zu einem der Zukunftstrends schlechthin auserkoren wird, ist ein Zeichen dafür, dass aus der Fiktion langsam Realität wird. Vor allem sei es konsequent, sagt die Interface-Designerin Pamela Pavliscak in ihrem Vortrag. Schließlich verknüpfen die Menschen Emotionen mit ihren technischen Geräten, sie bauen eine Beziehung zu ihrem Smartphone auf und geben ihrem Staubsaugerroboter einen Namen. Der nächste Schritt sei es, die Technik so zu designen, dass sie nicht nur gut in der Hand liegt oder putzig aussieht, sondern auch antworten kann.

Klingt einleuchtend. Und ist viel leichter gesagt als getan. Denn Emotionen sind, wie es Kleber unter dem beipflichtenden Lachen der Besucher in Austin formuliert, "einfach mal scheiß kompliziert", teilweise soziokulturell beeinflusst und noch nicht mal für Menschen immer eindeutig zu identifizieren. Wie sollen das erst die einfühlsamen Maschinen leisten? Wie kann Amazons Echo-Lautsprecher der Zukunft erkennen, ob sein Besitzer traurig ist, und im besten Fall noch die richtige Antwort für ihn haben?

Mit Technik Gefühle erkennen

Es gibt zumindest Ansätze und erste Anwendungen, die sowohl Kleber als auch Pavliscak in ihren Vorträgen erwähnen. Sie verbinden die Erkenntnisse aus jahrzehntelanger Gefühlsforschung mit den neusten technischen Möglichkeiten. Zum Beispiel Spracherkennung: "Wenn Maschinen beginnen, zu sprechen, vermuten die Menschen eine Beziehung", sagt Kleber. Umfragen unter Echo-Besitzern hätten ergeben, dass einige von ihnen in Alexa nicht nur eine Assistentin, sondern auch eine Freundin und ein Familienmitglied sehen. Ähnliche Reaktionen ruft der in Japan erhältliche Roboter Pepper hervor, der anders als Alexa aber zur Gefühlserkennung konzipiert wurde.

Aus den Spracheingaben der Nutzer lassen sich Gefühle identifizieren: Tonhöhe, Pausen, Wortwahl – all das sind bekannte Parameter. Was Amazon noch nicht verwendet, bieten andere Unternehmen längst an. Vor drei Jahren machte Beyond Verbal mit der Sprachanalyse eines Interviews mit Steve Jobs auf sich aufmerksam. Die Software analysierte das Gespräch und gab anschließend mutmaßliche Emotionen aus, darunter Interpretationen wie "möglicher kindlicher Egoismus". Je besser die Spracherkennung wird, desto leichter lassen sich Emotionen des Sprechenden analysieren. Vor allem das vernetzte Eigenheim der Zukunft könnte besser auf den Gemütszustand der Besitzer reagieren.

Eine zweite Möglichkeit ist Gesichtserkennung. Hier gilt das von Rosalind Picard mitgegründete und aus dem MIT Media Lab entstandene Unternehmen Affectiva als einer der führenden Anbieter. Affectiva verspricht, mithilfe eines Computerprogramms die Stimmung von Menschen an ihren Gesichtern ablesen zu können. Das Unternehmen will das derzeit größte Archiv an Emotionsdaten haben, als mögliche Anwendungen nennen sie die Kommunikation mit Autisten und die Werbewirtschaft. Sie hofft, anhand der Mimik die Wünsche von Kunden erkennen zu können.

Eine dritte Möglichkeit, Gefühle abzuleiten, ist durch Biometrie. Hier kommen Wearables wie Smartwatches oder Ohrhörer ins Spiel, die Puls, Bewegung oder Körpertemperatur messen. Unternehmen wie IBM und Intel entwickeln Hard- und Software, die beispielsweise in der Diagnostik von Epilepsie zum Zuge kommen soll.