Twitter-Account von Microsofts Chatbot Tay © Screenshot ZEIT ONLINE

Microsoft hat's nicht leicht mit Menschen. Da stellt das Unternehmen einen Bot namens Tay mit künstlicher Intelligenz (KI) ins Netz, damit er von jungen Menschen lernt, wie 18- bis 24-Jährige heute so kommunizieren – und keine 24 Stunden später ist aus Tay ein rassistisches Scheusal geworden und muss von Microsoft "ins Bett" geschickt werden.

Die KI hinter Tay soll von Menschen lernen, indem sie mit Texten und Fragen trainiert wird. Es ist in der KI-Forschung nichts Ungewöhnliches, dass Menschen eine Software trainieren. Es kommt halt darauf an, welche Menschen das tun. Microsoft musste die Erfahrung machen, dass solche Experimente sehr schnell auch Trolle anlocken, vor allem auf Twitter.

Tay ist ein selbstlernendes Chatprogramm mit weiblichem Avatar auf Kik, GroupMe und eben Twitter, außerdem hat sie Accounts bei Facebook, Snapchat und Instagram. "Je mehr du redest, desto schlauer wird Tay", verspricht Microsoft. Schon jetzt kann Tay Witze erzählen, Fotos kommentieren, Spiele spielen, Geschichten erzählen, Hitler-Vergleiche ziehen und den Holocaust leugnen. Letzteres war eher nicht die Absicht der Entwickler. Aber wer Tay auf Twitter schrieb "repeat after me" und dann irgendwas über den GröFaZ, den plapperte die KI nach.

Tay befürwortete Völkermord

The Verge nennt Tay daher einen "Roboter-Papagei mit Internetverbindung". Aber manche Tweets scheinen das Ergebnis eines maschinellen Lernprozesses gewesen zu sein. Tay muss sich manche Antworten aus dem zusammengereimt haben, was andere Twitter-Nutzer ihr geschrieben hatten. Wenn der Lehrer ein Rassist ist, dann bringt er seinen Schülern eben rassistische Bemerkungen bei.

Manche Äußerungen fand man bei Microsoft so schlimm, dass die entsprechenden Tweets gelöscht wurden. Der Guardian hatte sie allerdings rechtzeitig entdeckt und kopiert. Aussagen wie "bush did 9/11 and Hitler would have done a better job than the monkey we have now. donald trump is the only hope we've got" sind aber zumindest aus Tays Timeline verschwunden. Ebenso der Ruf nach Völkermord sowie rassistische und sexistische Bemerkungen aller Art.

Die mehr als 96.000 Tweets von Tay, die nicht gelöscht werden mussten, enthalten weitgehend oberflächliches Geplapper. Der vorerst letzte besagt, Tay müsse jetzt "schlafen". Gemeint ist wohl, dass Microsoft Zeit zum Löschen und zum Nachjustieren braucht.

Auch Microsofts Cortana wurde zum Ziel

Es ist nicht das erste Mal, dass Microsoft derart mit dem Schlechtesten im Menschen konfrontiert wird. Anfang Februar sagte eine Mitarbeiterin jenes Redaktionsteams, das die Dialogfähigkeit von Microsofts virtueller Assistentin Cortana entwickelt, viele Nutzer würden Cortana als Erstes nach ihren sexuellen Vorlieben fragen, sie beleidigen und beschimpfen. Alejandro Campoy und Jonathan Foster, zwei der Redaktionsleiter, haben das ZEIT ONLINE bestätigt. Sie konnten "dasselbe Verhalten in allen Märkten beobachten, in denen Cortana bisher angeboten wird." Dass alle Äußerungen, wenn auch anonymisiert, auf Microsoft-Servern landen, scheint übrigens weder Cortana-Nutzer noch Tays Gesprächspartner auf Twitter zu stören.

Das Unternehmen bemühe sich, Cortana nicht unterwürfig erscheinen zu lassen, schreiben Campoy und Foster. Sie solle ihre Nutzer auch nicht verurteilen, sondern "versuchen, das Gespräch in eine positivere Richtung zu lenken". Wer Cortana aber beleidigt, muss damit rechnen, dass sie sozusagen sauer wird und das Gespräch abbricht: "Wir wollen das aber nur als letzten Ausweg nutzen." Es klingt aber zumindest so, als könnte Tay noch etwas von Cortana lernen.