Dieser Emmanuel Macron! Dankt am Abend seines Wahlsieges seinen "amerikanischen Mitbürgern" für ihr Vertrauen! Wer Macrons Tweet vom 7. Mai las, der musste sich wundern – jedenfalls hierzulande und in Amerika. In der automatischen Übersetzung, die Twitter deutschen Nutzern anbot, war von "tiefer Dankbarkeit" gegenüber den "amerikanischen Mitbürgern" die Rede. Auch in den USA wurde Macrons Anrede "mes chers compatriotes" als "my fellow Americans" übersetzt. Dabei bedeutet compatriotes im Französischen schlicht "Mitbürger". Über Amerikaner hatte Macron kein Wort verloren. Wie Twitter nur darauf kam?

Das scheinbare Rätsel ist ein Glücksfall. Zumindest für Joanna Bryson. Just drei Wochen zuvor hatte die Spezialistin für maschinelles Lernen von der University of Bath in der Forschungszeitschrift Science vor solchen Fällen gewarnt. In ihrem Artikel hatte Bryson beschrieben, wie sprachverarbeitende Algorithmen lernen, und kritisiert, dass diese dabei die unbewussten (Vor-)Urteile der Menschen übernähmen. Anders gesagt: Auch künstliche Intelligenz hat Schlagseite. Doch die brisante These vom vorurteilsbeladenen Computer erregte kaum Aufmerksamkeit. Stattdessen schlug Bryson Skepsis entgegen. Wo denn die Beispiele aus dem echten Leben seien, wurde sie immer wieder gefragt – bis zu Macrons Tweet. Seither sind die Kritiker verstummt. "Das ist ein super Beispiel für unsere neueste Forschung über maschinelle Sprachverarbeitung", sagt Bryson.

Zwei Techniken sind es, die auf dramatische Art und Weise die Fähigkeit von Computern verbessert haben, Bilder oder Sprache zu "verstehen". Maschinenlernen (kurz: ML) nennt sich die eine Technik, die darauf hinausläuft, dass Computer sich selbst etwas beibringen, indem sie in großen Datensätzen nach Mustern suchen. Die zweite hört auf den Namen tiefe neuronale Netze (deep neural networks, DNN); diese versuchen, die Arbeitsweise des Gehirns mit seinen vielfältigen Verbindungen in einer Software zu imitieren. Beide Techniken laufen darauf hinaus, dass Computer auf ähnliche Art lernen, wie es vermutlich auch Menschen tun. Damit aber, so hat Joanna Bryson zusammen mit der Informatikerin Aylin Caliskan von der Princeton University gezeigt, schnappen die Maschinen auch allerhand typisch menschliche Vorurteile, Stereotype und diskriminierende Ansichten auf.

Wie genau die neuronalen Netze jeweils zu ihren Schlüssen kommen, lässt sich kaum nachvollziehen. Für Forscher sind sie weitgehend eine Blackbox. Zumindest aber kann man ihnen beim Lernvorgang zusehen. Füttert man eine Maschine mit Texten, damit sie sich daraus die menschliche Sprache erschließt, geht sie nach Brysons Theorie ganz ähnlich vor wie kleine Kinder: Die lernen keine Definitionen, sondern versuchen, die Bedeutung von Wörtern oder Sätzen aus dem Zusammenhang zu erfassen. Je mehr Vergleichstext vorliegt, desto besser. Für die Maschinen ist dank des Internets der Nachschub quasi endlos – das lädt aber auch zu Fehlschlüssen ein.

So hätten frühere, regelbasierte Verfahren für Computerdolmetscher etwa das Wort compatriotes wörtlich übersetzt (es existiert sogar buchstaben- und sinngleich im Englischen). Dagegen sucht die neue Technik nach einer Bedeutung, indem sie große Datenmengen vergleicht. Sie erzeugt sozusagen Semantik per Statistik. Und statistisch gilt für die Mehrheit aller Präsidentenansprachen: Wenn darin der Satz "Liebe XY, vielen Dank für Ihr Vertrauen" vorkommt, steht XY meist für die Wörter "fellow Americans", amerikanische Mitbürger. Denn fast jede Rede eines US-Präsidenten beginnt mit dieser Floskel.

Schlecht bezahlte Jobs werden automatisch Frauen zugeordnet, gut bezahlte Männern

Bliebe es bei solchen gelegentlichen Kuriositäten, könnte man diese den Maschinen noch nachsehen. Denn insgesamt ist die maschinelle Übersetzung deutlich besser geworden. Aber hier geht es um mehr. Und ein Blick in die Vorurteilsforschung hilft, zu verstehen, was an der Sache heikel ist.

Um unbewusste Vorurteile bei Menschen zu untersuchen, bedienen sich Psychologen für gewöhnlich des sogenannten Implicit Associations Test (IAT). Dieser misst, wie lange ein Proband benötigt, um zwei Begriffe miteinander in Verbindung zu bringen. Kommen ihm deren Bedeutungen ähnlich vor, ist die Reaktionszeit kürzer, als wenn ihm die dahinterstehenden Konzepte semantisch inkompatibel erscheinen. So assoziieren Menschen etwa Blumennamen eher mit Adjektiven wie "schön" oder "hübsch", Insekten dagegen eher mit negativen Begriffen.

Informatiker können zeigen, dass Maschinen ganz ähnliche Assoziationen produzieren. Sichtbar werden sie im sogenannten Word-to-Vec-Verfahren, das Bryson gewissermaßen als maschinelle Variante des IAT nutzt. Dieses Verfahren ist üblich in der Computerlinguistik, um Semantik zu erfassen: Wörter werden danach sortiert, welche anderen Wörter häufig in ihrem Umfeld auftauchen. Klingt abstrakt? Ein Aufsatz von Wissenschaftlern der Boston University und Forschern bei Microsoft Research bringt das Problem schon im Titel auf den Punkt: Man is to Computer Programmer as Woman is to Homemaker "Mann verhält sich zu Programmierer wie Frau zu Haushaltshilfe". Der im vergangenen Jahr veröffentlichte Aufsatz wird seit Monaten unter Computerlinguisten heftig diskutiert. Zeigt er doch, dass die Algorithmen nach der statistischen Auswertung menschlicher Texte ein altmodisches Rollenbild reproduzieren.