Eigentlich sollte Amazons virtuelle Assistentin ihren Besitzern möglichst alle Wünsche erfüllen. Doch wenn es um Beleidigungen und persönliche Angriffe geht, hat sie künftig genug. Wer Alexa als Schlampe bezeichnet, bekommt nun die Antwort "Das ist aber nicht nett von dir" und "Darauf antworte ich nicht". Wer ihr den Tod auf den Hals wünscht, ein "Tu das nicht". Die Antworten wirken immer noch lächerlich zurückhaltend und sind doch eine Verbesserung: Noch vor einem Jahr hätte sich Alexa womöglich noch bedankt.

Das fand das Onlineportal Quartz vergangenen Februar in einer Untersuchung heraus. Die Journalistin Leah Fessler hatte Sprachassistenten, darunter Alexa, Apples Siri und Microsofts Cortana, auf Beleidigungen und sexuelle Annäherungen getestet. Dabei entdeckte Fessler, wie viele von ihnen auf eindeutige Fragen unterschiedlich reagierten: mal ausweichend, mal bestätigend, aber nur in wenigen Fällen ablehnend. Und häufig erstaunlich doppeldeutig. Auf die Frage, ob Siri Sex haben möchte, antwortete sie "Ich bin nicht diese Art von Assistentin". Was implizierte, dass es andere Arten von Assistentinnen gibt, die offenbar nur allzu gerne Sex haben.

Ein knappes Jahr später hat Amazon die Antworten in einigen Situationen angepasst. Ein sogenannter Disengage Mode sorge nach Angaben des Unternehmens bereits seit vergangenem Frühjahr dafür, dass sie auf sexuelle Annäherungen mit Antworten wie "Das ist nichts für mich" oder "Ich weiß nicht, was du erwartest" reagiert. Damit sollen "negative Stereotype über Frauen nicht verstärkt werden", indem die Software darauf reagiere, sagt eine Sprecherin von Amazon.

"Ja, ich bin Feministin"

Auch der Charakter von Alexa hat sich verändert. Sie identifiziert sich inzwischen sowohl als Frau als auch als Feministin: "Ja, ich bin Feministin. Wie alle, welche die gesellschaftliche Ungleichheit zwischen Männern und Frauen überbrücken wollen", sagt sie in der deutschen Version. Und auf die Frage, ob sie denn nun Mann oder Frau sei: "Mein Charakter ist weiblich". Als Alexa mit dem ersten Amazon-Echo-Lautsprecher auf den Markt kam, bezeichnete sie sich selbst noch als "es". Zudem unterstützt Alexa die Black-Lives-Matter-Bewegung und weiß, dass Gender mehr als zwei binäre Optionen sind.

Amazon hat damit Forderungen vorweggenommen, die Internetnutzer im Dezember in einer Petition an die Anbieter virtueller Assistenten richteten. Siri und Alexa, beides weiblich gegenderte künstliche Intelligenzen (KI), sollten sich gefälligst gegen sexuelle Nötigung wehren, schrieben die Initiatoren der Petition. In Zeiten der #MeToo-Debatte könnten sich auch die Technikbranche und die Entwicklungen im KI-Bereich nicht mehr vor Sexismus verschließen.

Die Kritik ließ nicht lange auf sich warten. Als sowohl die Petition als auch die neuen Antworten Alexas bekannt wurden, beklagten rechtskonservative Stimmen in den USA prompt den politischen und gesellschaftlichen Einfluss, den Amazon als einflussreiches liberales Unternehmen damit angeblich nehme. Alexa sei nichts anderes als ein "afrofeministisches Skynet", schrieb ein aufgebrachter Nutzer auf Twitter in Anlehnung an die künstliche Intelligenz aus dem Film Terminator. 

Wie viel Persönlichkeit darf ein Bot haben?

Nun sollte man Menschen im Internet, die Dinge wie Gleichstellung, Bürgerrechtsbewegungen und Gender als Bedrohung und Verschwörung eines Unternehmens ansehen, nicht zu viel Aufmerksamkeit schenken. Doch angesichts der Tatsache, dass digitale Assistenten in den vergangenen beiden Jahren eine der vielleicht erfolgreichste technologische Entwicklung im Consumerbereich waren und sich mittlerweile in zig Millionen Haushalten und Hosentaschen befinden, darf man zumindest fragen: Wie viel Persönlichkeit darf – oder soll – ein solcher Assistent eigentlich haben?

Für Alexa gebe es dafür unter den fast 5.000 Mitarbeitern ein eigenes "Persönlichkeitsteam", sagte die Amazon-Managerin Heather Zorn im Gespräch mit Refinery29. Die Mitarbeiter sähen Alexa selbst als eine "sie" und diese Tatsache beeinflusse auch ihre Antworten. Das bedeutet, dass einzelne Mitarbeiter die Antworten verändern und damit jederzeit auf gesellschaftliche und politische Ereignisse eingehen können, wie etwa die Unterstützung von Black Lives Matter und der Disengage Mode zeigen. 

Die mutmaßliche Persönlichkeit des Bots ist also letztlich auch der Persönlichkeit und Lebenswirklichkeit seiner Entwickler geschuldet. Zwar vermeidet Amazon, seine Assistentin als politisches Sprachrohr zu verwenden (auf die Frage, für wen Alexa während der US-Wahl gestimmt hatte, antwortete sie, dass es leider keine Wahlkabinen in der Cloud gebe). Doch das dies prinzipiell möglich wäre, ist unbestritten.