Gefühlserkennung : Affektive Informatik will unsere Emotionen deuten

Müde? Dank affektiver Informatik könnte das Smartphone das erkennen und Werbung für Kaffee einblenden. Erste Versuche dazu gibt es. Doch die Technik ist ethisch riskant.

Smartphones, Schaufensterpuppen oder Internetseiten sollen uns nicht nur erkennen, sie sollen auch unsere Emotionen bemerken und deuten. Die sogenannte affektive Informatik möchte so unser Leben besser machen: optimales Einkaufen, höhere Kundenbindung oder mehr Sicherheit. Das zumindest verspricht Affectiva, ein amerikanischer Hersteller von Software zur Messung von Emotionen.

Mobiltelefone erkennen beispielsweise anhand unserer Stimme, ob wir müde sind und ein wenig Werbung von Starbucks vielleicht angebracht wäre, Schaufensterpuppen sehen, wie wir auf die neue Modelinie im Schaufenster reagieren. "Das ist keine Zukunftsmusik", sagt Rosalind Picard, Wissenschaftlerin im Dienste von Affectiva: "Unsere Software kann zum Beispiel mithilfe einer hochauflösenden Kamera Gesichtsausdrücke erkennen und sagen, ob jemand glücklich, aufmerksam, verwirrt oder überrascht ist."

Die dafür nötige Software wurde von einem Wissenschaftlerteam des MIT unter Leitung von Picard entwickelt. Man habe 100.000 Gesichtsausdrücke von Menschen aus verschiedenen Kulturkreisen gesammelt, sodass die Software Affdex durch die Analyse von mehr als zwanzig Gesichtspunkten in der Lage sei, Emotionen zu erkennen. Selbst kulturelle Unterschiede seien kein Problem. "Affdex weiß, dass Japaner in Geschäftsgesprächen dazu neigen, weniger Emotionen zu zeigen als beispielsweise Menschen aus Brasilien", sagt Picard.

Schaufensterpuppen beobachten Kunden

Das Internetunternehmen AOL zeigte sich nach einer Pilotstudie begeistert: Es sei dank affektiver Informatik möglich, eine emotionale Bindung zwischen Internetnutzern und Marken herzustellen.

Auch der Einsatz in Kaufhäusern ist geplant. Die Software analysiert, wo Produkte oder Reklame platziert werden müssen, damit sie den Kunden optimal ansprechen. Hierzu werden Probanden mit Sensoren ausgestattet und zum Probeeinkaufen geschickt. Mit Kameras ausgerüstete Schaufensterpuppen spionieren die Kunden aus und analysieren ihre Gesichtsausdrücke, um herauszufinden, wie sie auf die Waren reagieren.

Spätestens hier äußern Experten ethische Bedenken. "Wenn wir von unserer rationalen Entscheidung abgebracht werden und hin zu einer emotionalen, womöglich gegen unseren Willen, dann ist das höchst problematisch", sagt Karsten Weber, Professor für allgemeine Technikwissenschaften an der TU Cottbus.

Überhaupt sind unabhängige Beobachter nicht so begeistert von der Idee. Affektive Informatik könnte zusammen mit einem Körperscanner an Flughäfen die Sicherheit erhöhen, ist man bei Affdex zwar überzeugt. Verdächtige Personen könnten schließlich anhand ihres Gesichtsausdruckes enttarnt werden.

Wer lächelt, ist nicht unbedingt glücklich

Das aber ist nach Meinung von Experten problematisch und könnte nicht nur Persönlichkeitsrechte verletzen: "Eine Maschine darf keine letzten Entscheidungen treffen", sagt der Technikphilosoph Bernhard Irrgang. Es sei nicht zu verantworten, wenn ein Mensch aufgrund der falschen Entscheidung einer Maschine bestraft werden würde.

"Auch die Programme von Affectiva machen Fehler", sagt Rosalind Picard. Grundsätzlich glaubt Forscherin aber an ihre Erkennungssoftware: "Am MIT haben wir in einer Studie sogar gezeigt, dass Software besser als Menschen ein lachendes Gesicht von einem frustrierten unterscheiden konnte." Wie hoch genau die Fehlerquote ist, kann sie aber nicht sagen.

Fehlerquoten sind dabei nicht einmal der Kern des Problems. "Maschinen können nicht emulieren, was wir denken oder was wir fühlen. Sie können immer nur simulieren, was von außen irgendwie schematisierbar ist", sagt Irrgang. Der Psychologieprofessor Arvid Kappas fügt hinzu: "Wir überschätzen völlig die Bedeutung des Gesichtsausdruckes." Der Ansatz von Systemen wie Affdex sei grundsätzlich falsch. "Ein Lächeln bedeutet nicht automatisch, dass wir glücklich sind."

Verlagsangebot

Hören Sie DIE ZEIT

Genießen Sie wöchentlich aktuelle ZEIT-Artikel mit ZEIT AUDIO

Hier reinhören

Kommentare

13 Kommentare Seite 1 von 3 Kommentieren

ethisch riskant, ein Wettbewerbsvorteil

die Erfahrung zeigt, dass alles was ethisch riskant ist, am Ende auch gemacht wird. Weil "ethisch riskant" eine Umschreibung dafür ist, dass dort ein Tabu besteht. Und weil es genügend skrupellose Menschen und Firmen gibt und geben wird, die genau das ausnutzen um sich zu bereichern. Vor den Augen der Öffentlichkeit und für jeden sichtbar. Die aktuellen Meldungen zu den Machenschaften der Deutschen Bank sind ein Beleg dafür und man kann tälich neue Beweise für diese traurige Tatsache finden

"Spionage", "gegen den Willen", "letzte Entscheidung

Leider nur Bedenken.

Es gäbe doch auch positive Einsatzgebiete, wie z.B. mein Auto erkennt, wenn ich müde fahre, eine Lernsoftware passt ihre Geschwindigkeit meinem Aufnahmevermögen an, eine GUI gibt mir Tipps usw.

Letztlich interpretieren wir die Gesichtsausdrücke unseres Gegenübers auch nicht immer nur als Spion, Verkäufer und Unterdrücker...

Nervig.

Die Starbucks-Werbung kommt, ich klick sie weg und bin genervt. Wenn jedes Mal, wenn ich müde bin diese Werbung kommt, dann werde ich sie anfangen zu hassen und Starbucks boykottieren. Da war ich sowieso noch nie. In den seltensten Fällen wird mich diese Technik tatsächlich zu einer Kaufentscheidung bewegen.

Ich empfinde Werbung im Internet als die am wenigsten erfolgreiche. Jeder klickt diese Pop-Ups weg, sie sind lästig. Mal ehrlich: hat sich jemand schon mal durchgelesen, was er da eigentlich weggeklickt hat? Auch ein Banner hat mich noch nie zu Kauf eines Produktes bewegt.

Danke an die ZEIT, dass sich hier keine Pop-Ups öffnen, wenn man einen Artikel anklickt. Die neue Technik könnte so schön sein, aber die Techniker haben die Rechnung ohne den Menschen gemacht. Es könnte auch dazu führen, dass sich der Mensch im öffentlichen Raum noch mehr isoliert (Kopfhörer, Sonnenbrille), um einfach nur seine Ruhe zu haben.