Versuchspersonen, die gut drauf sind, lösen komplizierte Aufgaben besser. Das ist nicht neu. Neu wäre es, wenn ein Computer erkennen könnte, ob sein menschliches Gegenüber gut drauf ist. Diesem Ziel widmet sich Rosalind Picard vom Media Lab des Massachusetts Institute of Technology (http://vismod.www.media.mit.edu/vismod/demos/affect). Wer bei ihr vorm Computer sitzt, wird verkabelt. Sensoren messen den elektrischen Hautwiderstand, den Blutdruck oder die Herzschlagfrequenz. Bewegungsmelder registrieren, wenn der Proband die Stirn runzelt, Kameras halten seinen Gesichtsausdruck fest. So soll die Maschine lernen, mit ihrem Bediener mitzufühlen - "affective computing" nennt Rosalind Picard das und hat auch die passende Theorie von der "emotionalen Intelligenz" parat.

In der Praxis könnte das zum Beispiel die Photographie bereichern: Ausgelöst wird ein Bild nur, wenn der Kameraträger in Erregung gerät. Oder den Sprachstil bei Vorträgen verbessern: Reagiert das Publikum verwirrt, hat der Redner etwas falsch gemacht. Und so weiter. Jeder menschliche Bereich, bei dem Gefühle im Spiel sind, könnte Computern zugänglich gemacht werden. Und das sind praktisch alle Bereiche.

Deshalb warnt Rosalind Picard auch gleich vor den Folgen ihres Tuns. HAL, jene Rechenmaschine aus Kubricks Film "2001", hatte bekanntlich Gefühle, äußerte sie sogar freimütig ("Ich habe solche Angst"). Was HAL aber nicht davon abhielt, der gesamten Raumschiffbesatzung den Saft abzudrehen, als sie ihm in die Quere zu kommen drohte.

Einer der wichtigsten Computerbefehle lautet deshalb immer noch: Aus.