Als vor einigen Monaten aufflog, dass Facebook sogenannte beliebte Artikel (trending articles) nicht von einem Algorithmus auswählen ließ, sondern von einer Gruppe Journalisten, war die Aufregung groß. "Urteile, die von Menschen getroffen werden, können niemals als wertneutral angesehen werden", kommentierte etwa ein Experte des Guardian. Seltsam. Computercode dagegen wäre also wertneutral?

Das ist naiv. Wir wissen beispielsweise, dass Suchen nach afroamerikanisch klingenden Namen auf Google öfter Werbung für Auskunftsdienste auslöst, die Personen auf eine mögliche kriminelle Vergangenheit überprüfen, als wenn nach "weiß" klingenden Namen gesucht wird. Jobsuchmaschinen wiederum zeigen Frauen eher Angebote für schlecht bezahlte Stellen an als Männern.

Nein, Technologie ist weder gut noch böse, noch ist sie neutral. An dieses "Erste Gesetz der Technologie" des amerikanischen Technikhistorikers Melvin Kranzberg (1917 bis 1995) sollte man sich in der Diskussion über Big Data, künstliche Intelligenz und maschinelles Lernen wieder erinnern. Technologie wird niemals außerhalb eines gesellschaftlichen Zusammenhangs entwickelt und eingesetzt. Sie ist stets das Resultat eines Prozesses, in dem Menschen Urteile darüber treffen, was wünschenswert ist, wofür Ressourcen eingesetzt werden und wer von neuen Technologien profitieren soll.

Nehmen wir die verbreiteten Systeme zur automatisierten Entscheidungsfindung oder -vorbereitung (automated decision making, ADM). In ihnen werden Entscheidungsmodelle in Rechenverfahren (Algorithmen) übersetzt, die dann eine – üblicherweise sehr große – Datenbasis analysieren, um daraus eine Aktion oder einen Handlungsvorschlag abzuleiten. So ein Algorithmus kann beispielsweise ein Filter sein, der entscheidet, welche E-Mail als unerwünschte Werbung aussortiert wird. Er könnte auch eine festgelegte Folge von Prüfungen sein, nach deren Ablauf jemand als terroristischer Gefährder eingeordnet wird. Jedem einzelnen Schritt, der notwendig ist, um ein solches System zu entwickeln, liegen Werturteile zugrunde. Das beginnt mit dem Entschluss, dass ein ADM-System überhaupt zu einem bestimmten Zweck entwickelt werden soll, setzt sich fort mit der Entscheidung, welche Daten die Analysegrundlage darstellen, und hört nicht auf mit der Ausarbeitung des Modells, das dem Algorithmus zugrunde liegt. Jede dieser Entscheidungen beruht auf einem Weltbild. Das macht sie nicht per se gut oder schlecht, aber es sollte klar sein, dass wir hier nicht von einem neutralen Prozess sprechen können, bloß weil das Ergebnis maschinenlesbarer Code ist und der Computer sich nicht verrechnet.

Software ist eben jedes Mal die Übersetzung von sozialen Interessen, Wünschen und Konventionen in eine formale Sprache, die maschinelle Aktionen steuert. Damit ist aber ein entscheidender Schritt getan: Die Vorstellungen der Softwareentwickler, die sie von Vorgängen und Interaktionen in der Welt haben, werden durch die Automatisierung verallgemeinert. Nicht nur das, sie werden auch festgeschrieben: Die Entwickler entwerfen ihr Regelwerk zu einem bestimmten historischen Zeitpunkt und unter bestimmten politisch-ökonomischen Bedingungen.

Dieser Artikel stammt aus der ZEIT Nr. 10 vom 2.3.2017.

Sind Menschen von ADM betroffen, bedeutet dies zugleich: Sie werden nach der Datenspur bewertet, die sie hinterlassen. Die Person wird sozusagen an ihrer Vergangenheit festgenagelt. Sie verliert auch die Deutungshoheit über diese Vergangenheit, die haben vielmehr die Techniker hinter dem Algorithmus und der Datenbank. Es ist zwar legitim, derartige Verfahren zu nutzen, um Erkenntnisse zu erlangen; problematisch wird es aber, wenn ADM zur einzigen Methode der Beobachtung, Erklärung und Prognose menschlichen Verhaltens wird. Institutionen und Unternehmen, die sich ausschließlich Algorithmen bedienen, um Verhalten zu prognostizieren, sprechen dem Menschen seine Lernfähigkeit ab.

Es fragt sich, wie darauf politisch zu reagieren ist. In seinem Artikel "You're fired" (ZEIT Nr. 08/17) schreibt Steven Hill, der Vormarsch neuer digitaler Technologien, kombiniert mit Internet-basierten Crowdsourcing-Plattformen, lege den Schluss nah, dass zum ersten Mal in der jüngeren Geschichte die "kreative Zerstörung" durch Technologie und Innovation eher destruktiv sein werde. Was, fragt Hill, wenn "smarte" Maschinen und Roboter jeden Job ausüben könnten und kein Mensch je wieder einer Erwerbsarbeit nachgehen müsste? Wer würde die Früchte dieses Produktivitätsfortschritts ernten? Wir alle? Oder eine Handvoll "Masters of the Universe" – die Besitzer und Manager dieser Technologien? Alles ungeklärt, "und dennoch steuern wir blind darauf zu und fragen nicht einmal, ob wir diese Technologien nicht strenger regulieren sollten. Ob wir sie womöglich aufhalten sollten, ist noch weniger Gegenstand einer Debatte." Als Beispiele für Technologien, die wir bereits als Bedrohung menschlicher Gesellschaften identifiziert haben, nennt der Autor atomare und chemische Waffen, das Klonen und die Verwendung von Anabolika im Sport. Die seien schließlich bereits stark reguliert oder sogar schlicht verboten.

Was er beschreibt, sind konkrete Ausformungen ganzer Technologiefelder. Indessen würden wir als Gesellschaft wohl kaum auf die Idee kommen, sämtliche Technologien zu verbieten, die auf Erkenntnissen der Physik, Chemie oder des Ingenieurwesens beruhen, obwohl auf dieser Basis auch Atom- und Chemiewaffen produziert werden. Wir ächten das reproduktive Klonen von Menschen, aber schon beim therapeutischen Klonen ist es mit der Einigkeit vorbei, und niemand würde darauf verfallen, die Gentechnologie insgesamt zu verbieten. Auch die in bestimmten Sportarten verbotenen Anabolika sind lediglich eine kleine Unterklasse der Steroide. Und an Steroiden wird aus gutem Grund intensiv geforscht, denn in Form zahlreicher Medikamente, etwa Cortison-Präparate, lindern sie die Leiden vieler Patienten.

Was genau will Hill also "stark regulieren" oder gar verbieten, wenn er von neuen digitalen Technologien spricht – etwa die Entwicklung von Algorithmen und ihren Einsatz? Sie sind seit Langem fester Bestandteil der Welt, in der wir leben; selbst die Arbeit an künstlicher Intelligenz wurde bereits vor mehr als einem halben Jahrhundert begonnen. Lediglich das Crowdsourcing von Arbeit in globalem Maßstab ist eine neue Entwicklung. Digitale Technologien sind außerdem derart breite Forschungs- und Einsatzfelder, bis hin zur Grundlagenforschung, dass unklar bleibt, was Hill denn da beschränken möchte und wie er sich das vorstellt.