Eigentlich sollte Amazons virtuelle Assistentin ihren Besitzern möglichst alle Wünsche erfüllen. Doch wenn es um Beleidigungen und persönliche Angriffe geht, hat sie künftig genug. Wer Alexa als Schlampe bezeichnet, bekommt nun die Antwort "Das ist aber nicht nett von dir" und "Darauf antworte ich nicht". Wer ihr den Tod auf den Hals wünscht, ein "Tu das nicht". Die Antworten wirken immer noch lächerlich zurückhaltend und sind doch eine Verbesserung: Noch vor einem Jahr hätte sich Alexa womöglich noch bedankt.
Das fand das Onlineportal Quartz vergangenen Februar in einer Untersuchung heraus. Die Journalistin Leah Fessler hatte Sprachassistenten, darunter Alexa, Apples Siri und Microsofts Cortana, auf Beleidigungen und sexuelle Annäherungen getestet. Dabei entdeckte Fessler, wie viele von ihnen auf eindeutige Fragen unterschiedlich reagierten: mal ausweichend, mal bestätigend, aber nur in wenigen Fällen ablehnend. Und häufig erstaunlich doppeldeutig. Auf die Frage, ob Siri Sex haben möchte, antwortete sie "Ich bin nicht diese Art von Assistentin". Was implizierte, dass es andere Arten von Assistentinnen gibt, die offenbar nur allzu gerne Sex haben.
Ein knappes Jahr später hat Amazon die Antworten in einigen Situationen angepasst. Ein sogenannter Disengage Mode sorge nach Angaben des Unternehmens bereits seit vergangenem Frühjahr dafür, dass sie auf sexuelle Annäherungen mit Antworten wie "Das ist nichts für mich" oder "Ich weiß nicht, was du erwartest" reagiert. Damit sollen "negative Stereotype über Frauen nicht verstärkt werden", indem die Software darauf reagiere, sagt eine Sprecherin von Amazon.
"Ja, ich bin Feministin"
Auch der Charakter von Alexa hat sich verändert. Sie identifiziert sich inzwischen sowohl als Frau als auch als Feministin: "Ja, ich bin Feministin. Wie alle, welche die gesellschaftliche Ungleichheit zwischen Männern und Frauen überbrücken wollen", sagt sie in der deutschen Version. Und auf die Frage, ob sie denn nun Mann oder Frau sei: "Mein Charakter ist weiblich". Als Alexa mit dem ersten Amazon-Echo-Lautsprecher auf den Markt kam, bezeichnete sie sich selbst noch als "es". Zudem unterstützt Alexa die Black-Lives-Matter-Bewegung und weiß, dass Gender mehr als zwei binäre Optionen sind.
Amazon hat damit Forderungen vorweggenommen, die Internetnutzer im Dezember in einer Petition an die Anbieter virtueller Assistenten richteten. Siri und Alexa, beides weiblich gegenderte künstliche Intelligenzen (KI), sollten sich gefälligst gegen sexuelle Nötigung wehren, schrieben die Initiatoren der Petition. In Zeiten der #MeToo-Debatte könnten sich auch die Technikbranche und die Entwicklungen im KI-Bereich nicht mehr vor Sexismus verschließen.
Die Kritik ließ nicht lange auf sich warten. Als sowohl die Petition als auch die neuen Antworten Alexas bekannt wurden, beklagten rechtskonservative Stimmen in den USA prompt den politischen und gesellschaftlichen Einfluss, den Amazon als einflussreiches liberales Unternehmen damit angeblich nehme. Alexa sei nichts anderes als ein "afrofeministisches Skynet", schrieb ein aufgebrachter Nutzer auf Twitter in Anlehnung an die künstliche Intelligenz aus dem Film Terminator.
Wie viel Persönlichkeit darf ein Bot haben?
Nun sollte man Menschen im Internet, die Dinge wie Gleichstellung, Bürgerrechtsbewegungen und Gender als Bedrohung und Verschwörung eines Unternehmens ansehen, nicht zu viel Aufmerksamkeit schenken. Doch angesichts der Tatsache, dass digitale Assistenten in den vergangenen beiden Jahren eine der vielleicht erfolgreichste technologische Entwicklung im Consumerbereich waren und sich mittlerweile in zig Millionen Haushalten und Hosentaschen befinden, darf man zumindest fragen: Wie viel Persönlichkeit darf – oder soll – ein solcher Assistent eigentlich haben?
Für Alexa gebe es dafür unter den fast 5.000 Mitarbeitern ein eigenes "Persönlichkeitsteam", sagte die Amazon-Managerin Heather Zorn im Gespräch mit Refinery29. Die Mitarbeiter sähen Alexa selbst als eine "sie" und diese Tatsache beeinflusse auch ihre Antworten. Das bedeutet, dass einzelne Mitarbeiter die Antworten verändern und damit jederzeit auf gesellschaftliche und politische Ereignisse eingehen können, wie etwa die Unterstützung von Black Lives Matter und der Disengage Mode zeigen.
Die mutmaßliche Persönlichkeit des Bots ist also letztlich auch der Persönlichkeit und Lebenswirklichkeit seiner Entwickler geschuldet. Zwar vermeidet Amazon, seine Assistentin als politisches Sprachrohr zu verwenden (auf die Frage, für wen Alexa während der US-Wahl gestimmt hatte, antwortete sie, dass es leider keine Wahlkabinen in der Cloud gebe). Doch das dies prinzipiell möglich wäre, ist unbestritten.
Kommentare
Wow! Politische Korrektheit und gendergerechte Sprache auf für Maschinen.
Die Auswüchse werden immer erstaunlicher.
Und die Ursache dessen waren natürlich keine Auswüchse...
Kommt immer auf den referenzpunkt an
Nutzer die das aufregt sollten sich mal fragen warum sie das aufregt.
"Der nächste und konsequente Schritt wäre, den Fragestellern dann zu sagen, weshalb die Aussage nicht okay ist. Vielleicht lernen manche Nutzer ja tatsächlich noch etwas."
Stellen Sie sich vor, Trump und seine Freunde kaufen Amazon.
Ob Sie eine Belehrung durch "Alexa" – dann natürlich in seinem Sinne – immer noch so erbaulich fänden?
Ideologisch verbissene Personen auf Propagandamission sind immer nervig.
Zumal auch hier offen ausgesprochen wird, daß Neutralität nicht angedacht ist:
"aber gleichzeitig haben wir die Chance und Verpflichtung, Alexa positiv für alle Menschen darzustellen – und gerade für Mädchen und Frauen."
Wieso "gerade für Mädchen und Frauen"?
Für den "progressiven" Feminismus ist Gleichberechtigung schon keine Option mehr.
"...Auch der Charakter von Alexa hat sich verändert....."
Ernsthaft jetzt? Eine Maschine die einen Charakter hat?
Alexa wird programmiert. Sie hat garnichts charakter-artiges. ich kann nicht nachvollziehen wer sich freiwillig , und auch noch gegen bezahlung sowas nach hause holt.
Aber : jeder wie er will.
"Alexa wird programmiert. Sie hat garnichts charakter-artiges."
Momentan gebe ich Ihnen noch recht bezüglich der Character- und Intelligenz-Losigkeit. Was die Zukunft bringt, bleibt das jedoch offen. Genauso wie der "Streit" zwischen Turing, Searle, Hofstatter und Hauser darüber.
Hab die Alexa mal getestet, und muss sagen sie ist zwar neu aber weit entfernt von gut. Musste immer durchs Zimmer schreien und hab mich blamiert vor meinen Freunden als ich sie vorführen wollte da sie jedes zweite Mal nix versteht.
Sollten lieber daran arbeiten die Funktionen besser hinzubekommen anstatt ihr eine Persönlichkeit zu geben, wenn ich mit einer Persönlichkeit reden möchte dann spreche ich mit einem Menschen.
Sie verfehlen den Punkt. Eine Persönlichkeit hatte sie auch vorher schon. Eben nur eine die ein antiquiertes Frauenbild darstellt.