Die Digitalkünstlerin Caroline Sinders will darauf aufmerksam machen, dass Suchmaschinen oder Gesichtserkennungssoftware von Stereotypen und Vorurteilen, etwa gegenüber Frauen, geprägt sind. Sinders arbeitet deshalb an einer "feministischen" Software. Am vergangenen Freitag sprach Sinders bei Z2X Digital in Berlin, einer Veranstaltung von ZEIT ONLINE. Nach welchen Regeln wir über Z2X berichten, lesen Sie hier.

ZEIT ONLINE: Frau Sinders, Sie erstellen gerade einen "feministischen" Datensatz – und irgendwann soll daraus eine "feministische" künstliche Intelligenz entstehen. Warum brauchen wir diese Dinge?

Caroline Sinders: Die Technologie, mit der wir zu tun haben, ist nicht neutral, sondern ziemlich sexistisch: Die Wissenschaftlerin Aylin Caliskan hat zum Beispiel herausgefunden, dass Google Translate beim Übersetzen Geschlechterstereotype bedient: Im Türkischen gibt es das geschlechtsneutrale Pronomen "o". Wenn Sie allerdings die türkischen Sätze "o bir doktor" und "o bir hemşire" ins Englische übersetzen lassen, wird daraus: "Er ist ein Arzt" und "Sie ist eine Krankenschwester".

ZEIT ONLINE: Wie kommt das?

Sinders: Wir leben in einer diskriminierenden Welt. Technologie spiegelt die Einstellungen und Vorurteile derer, die sie entwickeln und benutzen. Da geht es nicht nur um Sexismus, sondern auch um Rassismus. Schauen Sie in ein Technologieunternehmen: Welche Menschen arbeiten dort, wie sehen sie aus, mit welchen Daten arbeiten sie? Wenn zum Beispiel eine Gruppe weißer Männer eine Gesichtserkennungssoftware entwickelt und nicht darauf achtet, dass Bilder von Menschen mit anderer Hautfarbe und anderem Geschlecht in dem Datensatz enthalten sind, kann es sein, dass die Software nur bestimmte Gesichter als menschlich erkennt – und andere Personen für Gorillas hält. Das Programm Google Fotos hat einen schwarzen Programmierer und seine Freunde automatisch als "Gorillas" vertaggt. Wenn wir uns also in einem Raum der Ungleichheit befinden, wird Technologie diese Ungleichheit reproduzieren und verstärken.

ZEIT ONLINE: Ihr "feministischer" Datensatz ist ein Ansatz, etwas gegen diese Diskriminierung zu tun. Was macht Daten zu feministischen Daten?

Sinders: Alle Daten, die wir produzieren, sind etwas zutiefst Menschliches. Zum Beispiel die Daten, die wir auf Social Media hinterlassen: Wir posten zu einer bestimmten Uhrzeit, an einem bestimmten Tag. Wir vergeben Likes. Wir führen Unterhaltungen und versenden GIFs. All diese Daten sind von Menschen gemacht – und enthalten deswegen auch Überzeugungen oder Einstellungen der Menschen, die sie hinterlassen haben. Also können sie auch feministisch sein.

ZEIT ONLINE: Welche Daten verwenden Sie?

Sinders: Der Datensatz besteht aus inzwischen über 100 feministischen Texten, die ich in Workshops gemeinsam mit den Teilnehmenden sammle. Es sind ganz unterschiedliche Texte. Zum Beispiel ein feministischer Science-Fiction-Roman von Octavia Butler, der Text von Beyoncés Lemonade, das Sachbuch Broad Band von Claire Evans über die Frauen, die das Internet mitentwickelt haben, Donna Haraways Essays Ein Manifest für Cyborgs und eine Anthologie queerer Gedichte.

ZEIT ONLINE: Wer nimmt an Ihren Workshops teil?

Sinders: Ganz unterschiedliche Leute. Menschen aus der Wissenschaft, aus der IT-Branche, aber auch Künstlerinnen und Bibliothekare kommen zu den Workshops. Sie finden an ganz verschiedenen Orten statt: in Bibliotheken, in Galerien und Museen, aber auch im Rahmen von Konferenzen.

ZEIT ONLINE: Und dann entscheiden Sie gemeinsam, welche Texte in den Datensatz aufgenommen werden?

Sinders: Ja. Die Teilnehmenden schlagen zum Beispiel Artikel oder Interviews vor, und dann sprechen wir über die Texte und diskutieren, ob wir sie in den Datensatz aufnehmen. Mein grundsätzlicher Anspruch ist, dass es ein intersektionaler Datensatz wird, also zum Beispiel nicht nur Texte weißer Feministinnen einfließen, sondern auch solche von Women of Color und von Transfrauen.

"Ohne feministische Vorbilder geht es nicht"

ZEIT ONLINE: Was haben Sie mit dem "feministischen" Datensatz vor?

Sinders: Im Moment stelle ich den Datensatz noch zusammen. So entsteht zunächst einmal, nach und nach, ein Archiv intersektionaler feministischer Texte. Außerdem möchte ich mit dem Datensatz auch eine feministische künstliche Intelligenz erschaffen. Dafür brauche ich aber nicht nur den feministischen Datensatz, sondern auch eine Maschine, die auf dem Datensatz basiert.

ZEIT ONLINE: Sie meinen eine "feministische" künstliche Intelligenz?

Sinders: Ich verwende den Datensatz als Grundlage, um eine Maschine zu trainieren. Sie soll lernen, feministische Texte zu verstehen, also zu identifizieren oder auch nachzubilden. Die Maschine, oder in diesem Fall das Machine-Learning-Modell, ist die Grundlage der künstlichen Intelligenz. Wenn ich zum Beispiel eine künstliche Intelligenz entwickeln wollen würde, die Gedichte schreiben kann, dann müsste ich zunächst ein Modell mit vielen Gedichten füttern, in denen es Muster finden kann. Mein Modell muss diese Muster in den feministischen Texten finden, dafür durchkämmt es die Texte. Und bestenfalls erkennt das Modell irgendwann, was einen feministischen Text ausmacht. Zu Beginn klappt das noch nicht wirklich gut, es ist eben ein Lernprozess. Deshalb muss ich das Modell immer wieder trainieren und mit der Zeit verfeinern.

ZEIT ONLINE: Wofür wollen Sie Ihre "feministische" künstliche Intelligenz später einsetzen?

Sinders: Ich habe nicht unbedingt ein konkretes Anwendungsziel. Ich möchte die Möglichkeiten dieser feministischen Intelligenz ausloten. Es kann sein, dass sich dabei herausstellt, dass sie für ein konkretes Problem sehr nützlich ist. Aber zunächst geht es mir um das Erkunden.

ZEIT ONLINE: Sehen Sie ein bestimmtes Potenzial in dieser "feministischen" künstlichen Intelligenz?

Sinders: Da wäre ich erst mal vorsichtig, denn ich glaube nicht, dass Technologie ein gesellschaftliches Allheilmittel ist. Ich gehe auch nicht davon aus, dass einzelne Projekte, wie mein feministischer Datensatz oder die feministische künstliche Intelligenz, unsere Technologie als Ganzes feministischer und gerechter machen können. Aber ich denke, dass solche Projekte ein erster Schritt sind, um einen Wandel anzustoßen.

ZEIT ONLINE: Was war Ihre persönliche Motivation, den feministischen Datensatz aufzubauen und mit einer feministischen künstlichen Intelligenz zu experimentieren? 

Sinders: Der feministische Datensatz ist ein Kunstprojekt – und ich glaube an die Kraft politisch motivierter Kunst und an Aktivismus in Form von Kunst. Ich war neugierig zu erfahren: Wie wird ein technisches System aussehen, das aus einer feministischen Perspektive heraus entsteht? Wie wird es konfiguriert sein? Wie verläuft der Entstehungsprozess? Es ist unglaublich wichtig, eine durchdachte Kritik daran zu üben, wie Technologie entwickelt wird und was das mit unserer Welt macht.

Frauen bekommen keine so große Plattform wie ihre männlichen Kollegen.
Caroline Sinders

ZEIT ONLINE: Was macht das Datensammeln für Sie zu einer ermächtigenden und feministischen Praxis

Sinders: Ich denke, man kann die Arbeit an dem Datensatz mit den "Art and Feminism"-Wikipedia-Editier-Marathons vergleichen. Das sind Events, bei denen die Teilnehmenden gezielt Wikipedia-Beiträge über Künstlerinnen anlegen und ergänzen, damit sie dort auftauchen. Feministisches Gedankengut sichtbar zu machen, wie wir es mit dem Datensatz machen, ist essenziell. Wie soll man denn über Feminismus oder feministische Texte diskutieren, wenn sie kaum auffindbar sind? You can't be what you can't see ohne feministische Vorbilder geht es nicht. Deshalb würde ich langfristig gerne aus dem feministischen Datensatz ein offen zugängliches Archiv machen. Aber auch schon mit den Workshops will ich das Bewusstsein für die fehlende Sichtbarkeit schärfen.

ZEIT ONLINE: Wie machen Sie das?

Sinders: Wenn wir bei den Workshops nach den feministischen Texten für den Datensatz suchen, stellt sich heraus: Sie sind sehr schwer zu finden, wenn man nicht schon genau weiß, welchen Text man beisteuern will. Frauen, egal ob feministische Autorinnen, Wissenschaftlerinnen, Erfinderinnen oder Künstlerinnen, bekommen keine so große Plattform wie ihre männlichen Kollegen. Und dann benutzen wir für die Suche nach ihnen auch noch Google.

ZEIT ONLINE: Warum ist das problematisch?

Sinders: Googles Algorithmus ist nicht neutral, sondern liefert systematisch verzerrte Ergebnisse. Vereinfacht gesagt: Relevante Inhalte über Google zu finden ist vor allem dann möglich, wenn der Rest der Welt bereits nach ihnen gesucht hat. Und die Welt sucht bisher nicht nach den Frauen, die sie nicht kennt.