"Wir wissen als Gesellschaft nicht, was wir wollen"

Mitchell Baker ist die Vorsitzende der Mozilla Foundation, die wiederum so etwas ist wie das gute Gewissen des Silicon Valley: Laut Selbstbeschreibung will sie ein gesundes Internet fördern und das freie Netz schützen. Baker hat die Stiftung selbst mit aufgebaut und führt sie seit 2003. ZEIT ONLINE hat die Mozilla-Chefin in Berlin zum Interview getroffen.

ZEIT ONLINE: Frau Baker, die Technologieindustrie steht seit Monaten in der Kritik: Spätestens seit dem Cambridge-Analytica-Skandal muss sich Facebook für den Umgang mit Daten rechtfertigen, Amazon kürzlich für seine diskriminierende künstliche Intelligenz im Personalmanagement und Google-Mitarbeiter haben gegen das sogenannte Project Maven protestiert, eine Kooperation des Unternehmens mit dem Militär. All diese Fälle haben eine Gemeinsamkeit: Sie weisen auf grundsätzliche ethische Probleme in der Technologiebranche hin. Muss sich das Silicon Valley neu erfinden?

Mitchell Baker: Sagen wir mal so: Momentan tendiert man dazu, die Technologiebranche isoliert zu betrachten, sie anders zu behandeln als den Rest der Wirtschaft. Wenn wir uns Google und seine Arbeit an Project Maven ansehen, müssen wir uns fragen, wie wir darüber denken, wenn so etwas in anderen Branchen geschieht. Ist es immer abzulehnen, mit der Regierung an militärischen Projekten zu arbeiten? Es ist wichtig, dass die Mitarbeiter in Technologieunternehmen dagegen aufbegehren, wenn sie eine Arbeit als falsch empfinden. Aber es gibt auch Fälle, in denen die Kooperation mit dem Militär als ethisch richtig angesehen wird. Demokratien müssen sich verteidigen, da wäre es merkwürdig, die Zusammenarbeit mit dem Militär generell als unethisch zu betrachten.

ZEIT ONLINE: Sie meinen, dass ein anderer Maßstab an die Technologiebranche angelegt wird als an andere Industrien?

Baker: Ja, es gibt unterschiedliche Standards. Das liegt auch daran, dass es lange so wirkte, als sei alles, was die Tech-Industrie tat, gut. Die Branche schuf all diese neuen Dinge, die Welt liebte sie dafür und fühlte sich großartig. Was für eine Welt! Und dieses Gefühl endet nun. Jetzt schauen wir uns Technologie an, bemerken die Schattenseiten und beginnen, all diese wirklich wichtigen ethischen Fragen zu den Geschäftsmodellen zu stellen. Nun mag es einige Antworten geben, die nur für Technologie gelten – aufgrund der Macht, die ihr innewohnt. Aber einige der Antworten, die wir suchen, haben wir als Gesellschaft für andere Industrien längst gefunden. Und es wäre wichtig, diese Perspektive einzubinden. Andere Industrien sind zum Beispiel sehr viel regulierter als die Technologiebranche. Bislang zumindest.

ZEIT ONLINE: Aber hat sich die Tech-Branche nicht auch immer als die gute Seite präsentiert, die großartige Möglichkeiten für die Welt bereithält? Man denke nur an Googles früheres inoffizielles Motto "Don’t Be Evil": Tu nichts Böses, das war eine starke Botschaft. Ist die Kritik an den Tech-Unternehmen also nicht vor allem so massiv, weil sie ursprünglich mit einer anderen Vision angetreten sind?

Baker: Interessant. Ja, das klingt plausibel. Diese Sichtweise auf Technologie, die Sie beschreiben, hatten natürlich nicht nur die Technologen. Auch wir als Konsumentinnen haben dieses Narrativ geglaubt und es belohnt. Das war ein breiteres soziales Phänomen. Aber Ihre Beobachtung ergibt absolut Sinn. Wir wussten immer, dass zum Beispiel die Pharmaindustrie zwei Seiten hat. Die zweite Seite der Tech-Industrie entdecken wir erst jetzt.

ZEIT ONLINE: Teil der Kritik ist, dass die Ideologie des Silicon Valley etwas hervorgebracht hat, was der Internettheoretiker Evgeny Morozov als "Solutionismus" bezeichnet – als Idee, dass jedes gesellschaftliche Problem mithilfe einer eindeutigen technologischen Lösung zu lösen sei, obwohl das vielleicht nicht immer sinnvoll ist. Stimmen Sie dem zu?

Baker: Ich würde das etwas nuancierter formulieren. Technologie betrifft fast jeden Aspekt der Gesellschaft oder wird ihn einmal betreffen. Extrem wichtig wird sein, wie sie eingesetzt wird. Ich vergleiche das gerne mit Autos. Was hat Fahrzeuge sicherer gemacht? Teils waren das Regulierungen, Anforderungen der Regierung. Und teils war es eben bessere Technologie: Airbags, bessere Reifen, Sicherheitsglas. Ohne die technischen Fortschritte hätten wir heute nicht diese erschreckend sicheren Autos. Wir haben die Probleme in diesem Bereich erkannt, verstanden und Lösungen dafür gefunden. Die Lösungen oder, besser, die Abschwächungen der Probleme, die wir mit neuen Technologien haben, werden ebenfalls technischer Natur sein. Natürlich wissen wir noch nicht, wie diese Lösungen aussehen könnten, das ist der schwierige Teil. Derzeit agieren wir noch eher defensiv.

ZEIT ONLINE: Was meinen Sie mit defensiv?  

Baker: Ein Beispiel aus der Arbeit mit unserem Browser Firefox: Facebook Container ist ein Add-on, also eine Art Softwareergänzung, die wir für den Firefox entwickelt haben. Es beschneidet die Möglichkeiten des sozialen Netzwerks, den Nutzerinnen und Nutzern überall im Web zu folgen und Informationen über sie zu sammeln. Das ist ziemlich defensiv, weil es nur ein Scheibchen des Problems löst: Facebook sammelt ja weiter Daten über alle anderen. Solche Lösungen sind aber wichtig, weil sie schon heute helfen.

ZEIT ONLINE: Ein Problem, dem sich Mozilla in den kommenden Jahren annehmen will, ist die Entscheidungsfindung von Maschinen. Was ist daran in Ihren Augen das Kernproblem?

Baker: Dass die Verbindung zwischen Aktivität, Nutzen und Rechenschaft in diesem neuen, global vernetzten System schwach ist. Was ich damit meine: Das Internet ist global, Produkte funktionieren überall. Man kann aber die bad actors nicht von überall aus erreichen, weil es schwierig ist, sie ausfindig zu machen und mit ihnen in Kontakt zu treten. Ein weiteres Kernproblem besteht darin, dass wir als Gesellschaften manchmal nicht wirklich wissen, was wir wollen. Ich finde zum Beispiel die deutschen Fragen zu Facebooks Geschäftsmodell faszinierend. Das soziale Netzwerk verdient Geld mit Werbung und die Gesellschaft findet das hierzulande nicht akzeptabel. Ein klares, schönes Statement. Nur: Was heißt das eigentlich für deutsche Nutzerinnen und Nutzer? Was ist die Lösung, die man gerne hätte? Was wäre, wenn Facebook sagt: "Wisst ihr was? Dann ziehen wir uns eben aus Deutschland zurück, denn wir mögen unser Geschäftsmodell"? Wie reagiert die Gesellschaft in diesem Fall?

"Ich sehe in 'biases' auch etwas Positives"

ZEIT ONLINE: Was glauben Sie?

Baker: Wir wissen es nicht. Die Frage ist, wie viel uns Komfort wert ist. Nochmal zurück zu den Autos: Sicherheit kostet Geld. Als Gesellschaft haben wir entschieden, dass Autos teurer sind, als sie sein könnten, weil wir eingebaute Sicherheitsvorkehrungen brauchen. Das sorgt aber dafür, dass sich manche Leute Autos nicht mehr leisten können. In Bezug auf IT-Technologien führen wir viele der Diskussionen, an denen solche Entscheidungen hängen, noch nicht.

ZEIT ONLINE: Sie haben einmal gesagt, dass IT-Unternehmen Philosophinnen oder Psychologen brauchen, damit auch andere Perspektiven in Technologien mit einfließen. Nun gibt es solche Stellen schon in einigen Firmen. Aber wäre es nicht wichtiger, dass man diese Mitarbeiter einstellt, bevor das Produkt fertig ist? Und nicht, nachdem es schon erfolgreich ist und möglicherweise Probleme auftreten?

Baker: Es geht weniger darum, die Philosophinnen von heute einzustellen, sondern vielmehr darum, ein Verständnis von Geisteswissenschaften in Techniklehrpläne zu integrieren. Das würde mehr abdecken als nur Ethik. Und es wäre eine längerfristige Initiative. Denn es stimmt schon: Diversität braucht man nicht an einem Punkt in der Produktentwicklung und dann ist man fertig. Man kann sie auch nicht einfach später irgendwann reinholen. Daher ist es wichtig, bei der Bildung anzusetzen. Woran messen wir den Erfolg eines Unternehmens bisher? Anhand seiner Finanzen. Anhand dessen, ob am Ende des Quartals die Anteilseigner mehr oder weniger Geld ausgeschüttet bekommen als im Quartal zuvor. Unter solchen Bedingungen wird natürlich auch die Ausbildung der Arbeitnehmer nicht das System verändern. Aber sie macht einen Unterschied, weil sie den Mitarbeiterinnen ein breiteres soziales Verständnis verschafft, sodass sie die richtigen Fragen stellen können.

Technologie ist für viele Menschen heute noch immer schwer zu verstehen. Die meisten wollen einfach nur, dass alles funktioniert.
Mitchell Baker, Vorsitzende der Mozilla Foundation

ZEIT ONLINE: Was sind denn die richtigen Fragen?

Baker: Nehmen wir noch mal den Firefox-Browser. Wir bei Mozilla wollen unterbinden, dass jedes Unternehmen verfolgen kann, was Sie im Netz so anklicken. Aber bei unserer Arbeit hat sich herausgestellt, dass viele Websites so sehr von Trackern abhängen, dass sie ohne sie nicht mehr gut funktionieren. Wir müssen uns also fragen: Wie viele Seiten funktionieren nicht mehr? Wenn eine Seite nicht funktioniert, verstehen die Leute, warum das so ist? Juckt sie das überhaupt? Helfen wir ihnen noch damit? Selbst mit guten Absichten ist es ein langer Prozess, in dem wir herausfinden müssen, was für die Nutzerinnen und Nutzer das Richtige ist. Technologie ist für viele Menschen heute noch immer schwer zu verstehen. Und die meisten wollen einfach nur, dass alles funktioniert.

ZEIT ONLINE: Derzeit setzt man viele Technologien ein, ohne sich viele Gedanken über möglicherweise negative Konsequenzen zu machen. In den USA gibt es zum Beispiel ein System, das voraussagt, wie wahrscheinlich ein verurteilter Mensch wieder ein Verbrechen begeht. Eine Recherche der US-Investigativplattform ProPublica hat gezeigt, dass dieses System die Rückfallwahrscheinlichkeit bei schwarzen Menschen häufiger falsch einschätzt als bei weißen. Weil die Software Daten berücksichtigt, die auf möglicherweise von Vorurteilen geprägten Entscheidungen von Menschen basieren. Ist es nicht ein generelles Problem, dass man Technologien einsetzt, die noch nicht ausreichend getestet wurden?

Baker: Natürlich existiert der Druck, Produkte erst einmal auf den Markt zu bringen. Viele erfolgreiche Produkte aus dem Silicon Valley basieren auf diesem Modell: Liefere etwas aus, schau dir an, was den Leuten gefällt, und konzentriere dich auf diesen Aspekt. Ein iterativer Entwicklungsprozess, auf den wir als Nutzerin so größeren Einfluss haben. Aber natürlich kommt es vor, dass ein Unternehmen ein Produkt ausliefert und dann auf biases, auf Voreingenommenheiten, aufmerksam wird. Ich sehe darin auch etwas Positives.

ZEIT ONLINE: Etwas Positives?

Baker: Die biases in diesen Systemen bilden ja nach, womit Menschen sie gefüttert haben. Und damit führen uns diese Systeme vor Augen, welche Vorurteile wir haben. Bei der Verurteilung zu Gefängnisstrafen zum Beispiel. Es ist schrecklich, wenn künstliche Intelligenz oder ein anderes System zum Einsatz kommt und Menschen voreingenommen beurteilt. Die Realität ist aber, dass diese biases zustande kommen, weil zuvor Menschen Menschen schlecht behandelt haben. Wir hatten diese biases in der Vergangenheit, nun stecken sie in diesen Produkten und beurteilen Menschen weiter in einer unfairen Art und Weise. Ob das so sein darf, müssen wohl Regierungen und Juristen klären. Setzt man nun ein KI-System ein und bemerkt, dass das Resultat biases enthält, ist es aber einfacher, Korrekturen zu verlangen.

ZEIT ONLINE: Wie soll man denn solche Probleme beheben, wenn es sich um ein System handelt, das auf maschinellem Lernen basiert? Suggerieren die Daten, mit denen man ein solches System trainiert, dass eine schwarze Person mit größerer Wahrscheinlichkeit erneut straffällig wird, einfach weil schwarze Menschen in der Vergangenheit häufiger verurteilt wurden, dann ist es doch sehr schwer, diesen bias aus dem Softwaresystem herauszubekommen.

Baker: Richtig. Aber auch da denke ich, dass Technologie und Programmierer Teil der Lösung sein müssen. Die Gesellschaft kann natürlich sagen: Wir setzen diese Technologie nicht ein, bis ihr uns zeigen könnt, dass die Daten, mit denen diese Systeme trainiert werden, fehlerfrei sind. Dann müssen sich die Programmierer darum kümmern, andere Datensätze zu bekommen.

"Technologie wird immer fehlerhaft bleiben"

ZEIT ONLINE: Streng genommen sind die Datensätze ja nicht fehlerhaft. Sie repräsentieren einfach, welche juristischen Entscheidungen in der Vergangenheit gefallen sind. Die Idee, die Sie vorschlagen, würde beinhalten, dass die Programmierer entscheiden müssten, in was für einer Zukunft wir alle leben sollten.

Baker: Menschen machen das doch schon heute die ganze Zeit. Stellen wir uns mal vor, es wäre keine künstliche Intelligenz daran beteiligt. Wie ändert man ein System, in dem voreingenommene Richter sitzen? Wie evaluiert man ihre Arbeit? Wartet man, bis sie aussterben? Die Fragen sind im Grunde gar nicht so anders, anders ist das Werkzeug. Menschen werden immer voreingenommen sein. Der Computer führt uns das einfach nur vor Augen.

ZEIT ONLINE: Aber Menschen unterliegen dem sogenannten automation bias: Sie halten die Entscheidungen, die Maschinen treffen, für objektiver als die eines einzelnen Richters, weil KI-Systeme alle verfügbaren Daten heranziehen können.

Baker: Das ist interessant. Sie haben Recht: Die Daten sind nicht fehlerhaft, sie reflektieren einfach nur die Vergangenheit. Verlässt man sich zu sehr darauf, kann sich die Gesellschaft nicht verändern. Ich habe keine Antwort darauf.

ZEIT ONLINE: Man wird ja nie in der Lage sein, alle biases aufzuspüren. In gewisser Weise wird die Technologie also immer fehlerhaft bleiben – und damit auch die Gesellschaft. Wie gehen wir damit um?

Baker: Es ist wichtig, sich die Resultate anzusehen, die diese Maschinen ausspucken. Gibt es ein Regelwerk, ein System dafür? Was ist der Algorithmus, mit welchem Datensatz wurde die Maschine trainiert? 

Es wäre schön, zu verstehen, wie künstliche Intelligenzen ihre Entscheidungen treffen. Vollständig wird uns das aber nicht gelingen.
Mitchell Baker, Vorsitzende der Mozilla Foundation

ZEIT ONLINE: Aber wir wissen eben nicht, wie die Maschine zu diesen Erkenntnissen gelangt. Wir sehen die Resultate, die die Maschine errechnet, wir sehen, mit welchen Daten sie arbeitet, es ist aber unklar, was dazwischen passiert.

Baker: Das stimmt. Das ist aber auch bei Menschen so. Wir verstehen nicht, was im Gehirn eines Menschen passiert. Wir rationalisieren. Besonders angesichts der Fortschritte in der IT wäre es natürlich schön, die Umstände zu verstehen, unter denen künstliche Intelligenzen ihre Entscheidungen treffen. Vollständig wird uns das aber nicht gelingen.

ZEIT ONLINE: Die Mozilla Foundation erhält ja einen großen Teil ihrer Finanzierung von Google. Angesichts der Tatsache, dass Google in vielerlei Hinsicht scharf kritisiert wird – ist Mozilla tatsächlich in der richtigen Position, ethische Probleme in der Technologiebranche zu kritisieren?

Baker: Die Frage, die Sie stellen, stellen wir uns auch seit einer Weile. Google ist einer der größten Akteure in diesem Überwachungs- und Trackingsystem im Netz. Als wir diese Verbindung 2004 eingegangen sind, war das noch anders, da war das Unternehmen noch nicht an der Börse und es gab dieses Werbemodell nicht. Damals liebten unsere Nutzer diese Verbindung. Ich will nicht drum herumreden: Wir als Mozilla sind immer noch Teil des Silicon Valley. Aber unsere Motivationen und Ziele unterscheiden sich deutlich. Wir haben in letzter Zeit begonnen, uns umzusehen. Was gibt es noch für Finanzierungsmodelle? Wenn es nicht Werbung ist, gibt es andere Dienstleistungen, die irgendwie Gewinn im Netz generieren? Oder steuern wir auf eine Welt zu, die zurückgeht zu den Tagen der Software, in denen Menschen für Dinge bezahlt haben? Das ist natürlich eine schockierende Idee, aber vor dem Internet hat man für jede Software, die man genutzt hat, bezahlt. Wir erkunden solche Modelle jetzt wieder.

ZEIT ONLINE: Ein kostenpflichtiger Firefox wäre denkbar?

Baker: Auf keinen Fall. Firefox ist ein Open-Source-Projekt, dem fühlen wir uns verpflichtet, das ist unsere DNA. Wir halten es für wichtig aus Gründen der Sicherheit, aus Gründen unserer Identität, aus Gründen der Gemeinnützigkeit. Aber es gibt ja auch andere Dienste, die wir anbieten, an denen andere Menschen möglicherweise ausreichend interessiert sind, um auch dafür zu bezahlen. Die Verbindung zu unseren Nutzerinnen und Nutzern, die ist für uns fundamental. Trotzdem fragen wir uns: Solange wir im System stecken – was genau macht uns dann eigentlich anders?