ZEIT ONLINE: Was glauben Sie?

Baker: Wir wissen es nicht. Die Frage ist, wie viel uns Komfort wert ist. Nochmal zurück zu den Autos: Sicherheit kostet Geld. Als Gesellschaft haben wir entschieden, dass Autos teurer sind, als sie sein könnten, weil wir eingebaute Sicherheitsvorkehrungen brauchen. Das sorgt aber dafür, dass sich manche Leute Autos nicht mehr leisten können. In Bezug auf IT-Technologien führen wir viele der Diskussionen, an denen solche Entscheidungen hängen, noch nicht.

ZEIT ONLINE: Sie haben einmal gesagt, dass IT-Unternehmen Philosophinnen oder Psychologen brauchen, damit auch andere Perspektiven in Technologien mit einfließen. Nun gibt es solche Stellen schon in einigen Firmen. Aber wäre es nicht wichtiger, dass man diese Mitarbeiter einstellt, bevor das Produkt fertig ist? Und nicht, nachdem es schon erfolgreich ist und möglicherweise Probleme auftreten?

Baker: Es geht weniger darum, die Philosophinnen von heute einzustellen, sondern vielmehr darum, ein Verständnis von Geisteswissenschaften in Techniklehrpläne zu integrieren. Das würde mehr abdecken als nur Ethik. Und es wäre eine längerfristige Initiative. Denn es stimmt schon: Diversität braucht man nicht an einem Punkt in der Produktentwicklung und dann ist man fertig. Man kann sie auch nicht einfach später irgendwann reinholen. Daher ist es wichtig, bei der Bildung anzusetzen. Woran messen wir den Erfolg eines Unternehmens bisher? Anhand seiner Finanzen. Anhand dessen, ob am Ende des Quartals die Anteilseigner mehr oder weniger Geld ausgeschüttet bekommen als im Quartal zuvor. Unter solchen Bedingungen wird natürlich auch die Ausbildung der Arbeitnehmer nicht das System verändern. Aber sie macht einen Unterschied, weil sie den Mitarbeiterinnen ein breiteres soziales Verständnis verschafft, sodass sie die richtigen Fragen stellen können.

Technologie ist für viele Menschen heute noch immer schwer zu verstehen. Die meisten wollen einfach nur, dass alles funktioniert.
Mitchell Baker, Vorsitzende der Mozilla Foundation

ZEIT ONLINE: Was sind denn die richtigen Fragen?

Baker: Nehmen wir noch mal den Firefox-Browser. Wir bei Mozilla wollen unterbinden, dass jedes Unternehmen verfolgen kann, was Sie im Netz so anklicken. Aber bei unserer Arbeit hat sich herausgestellt, dass viele Websites so sehr von Trackern abhängen, dass sie ohne sie nicht mehr gut funktionieren. Wir müssen uns also fragen: Wie viele Seiten funktionieren nicht mehr? Wenn eine Seite nicht funktioniert, verstehen die Leute, warum das so ist? Juckt sie das überhaupt? Helfen wir ihnen noch damit? Selbst mit guten Absichten ist es ein langer Prozess, in dem wir herausfinden müssen, was für die Nutzerinnen und Nutzer das Richtige ist. Technologie ist für viele Menschen heute noch immer schwer zu verstehen. Und die meisten wollen einfach nur, dass alles funktioniert.

ZEIT ONLINE: Derzeit setzt man viele Technologien ein, ohne sich viele Gedanken über möglicherweise negative Konsequenzen zu machen. In den USA gibt es zum Beispiel ein System, das voraussagt, wie wahrscheinlich ein verurteilter Mensch wieder ein Verbrechen begeht. Eine Recherche der US-Investigativplattform ProPublica hat gezeigt, dass dieses System die Rückfallwahrscheinlichkeit bei schwarzen Menschen häufiger falsch einschätzt als bei weißen. Weil die Software Daten berücksichtigt, die auf möglicherweise von Vorurteilen geprägten Entscheidungen von Menschen basieren. Ist es nicht ein generelles Problem, dass man Technologien einsetzt, die noch nicht ausreichend getestet wurden?

Baker: Natürlich existiert der Druck, Produkte erst einmal auf den Markt zu bringen. Viele erfolgreiche Produkte aus dem Silicon Valley basieren auf diesem Modell: Liefere etwas aus, schau dir an, was den Leuten gefällt, und konzentriere dich auf diesen Aspekt. Ein iterativer Entwicklungsprozess, auf den wir als Nutzerin so größeren Einfluss haben. Aber natürlich kommt es vor, dass ein Unternehmen ein Produkt ausliefert und dann auf biases, auf Voreingenommenheiten, aufmerksam wird. Ich sehe darin auch etwas Positives.

ZEIT ONLINE: Etwas Positives?

Baker: Die biases in diesen Systemen bilden ja nach, womit Menschen sie gefüttert haben. Und damit führen uns diese Systeme vor Augen, welche Vorurteile wir haben. Bei der Verurteilung zu Gefängnisstrafen zum Beispiel. Es ist schrecklich, wenn künstliche Intelligenz oder ein anderes System zum Einsatz kommt und Menschen voreingenommen beurteilt. Die Realität ist aber, dass diese biases zustande kommen, weil zuvor Menschen Menschen schlecht behandelt haben. Wir hatten diese biases in der Vergangenheit, nun stecken sie in diesen Produkten und beurteilen Menschen weiter in einer unfairen Art und Weise. Ob das so sein darf, müssen wohl Regierungen und Juristen klären. Setzt man nun ein KI-System ein und bemerkt, dass das Resultat biases enthält, ist es aber einfacher, Korrekturen zu verlangen.

ZEIT ONLINE: Wie soll man denn solche Probleme beheben, wenn es sich um ein System handelt, das auf maschinellem Lernen basiert? Suggerieren die Daten, mit denen man ein solches System trainiert, dass eine schwarze Person mit größerer Wahrscheinlichkeit erneut straffällig wird, einfach weil schwarze Menschen in der Vergangenheit häufiger verurteilt wurden, dann ist es doch sehr schwer, diesen bias aus dem Softwaresystem herauszubekommen.

Baker: Richtig. Aber auch da denke ich, dass Technologie und Programmierer Teil der Lösung sein müssen. Die Gesellschaft kann natürlich sagen: Wir setzen diese Technologie nicht ein, bis ihr uns zeigen könnt, dass die Daten, mit denen diese Systeme trainiert werden, fehlerfrei sind. Dann müssen sich die Programmierer darum kümmern, andere Datensätze zu bekommen.