FacebookFlickrGoogleInstagramTeilenSoundcloudTwitterGefällt mirAntwortenRetweetenYouTubeZEIT ONLINEFacebookFlipboardMailFacebook MessengerPockettwitterWhatsappZ+
Anzeige

Digitalisierung: Nein, Ethik kann man nicht programmieren

Ethik kann man in Code festschreiben und künstliche Intelligenz ist in 20 Jahren besser als der Mensch? Nein. Sechs Digitalisierungsmythen, über die wir reden müssen
Roboter wie Sophia gelten als künstlich intelligent. Aber was heißt schon intelligent? © Isaac Lawrence/AFP/Getty Images

Welche sozialen und politischen Konsequenzen haben automatisierte Entscheidungen von Computern? Wie beeinflussen sie unser alltägliches Leben? Und was passiert, wenn Maschinen diskriminieren? Diskutiert man über die Digitalisierung, geht es immer auch um diese Fragen.

Die Antworten darauf sind kompliziert, dementsprechend kontrovers sind die laufenden Debatten, müssen es auch sein: Schließlich drehen sie sich darum, wie wir die Gegenwart und Zukunft dieser Gesellschaft gestalten. Doch viele Debatten kranken an falschen Vorstellungen und Annahmen über die Struktur und Eigenschaften des Digitalen. Dabei fallen sechs zentrale Irrtümer auf, die sich immer wieder in Argumenten finden. Zentral, weil sie sich nicht nur innerhalb einer speziellen gesellschaftlichen Gruppe finden, sondern sich quer durch nahezu alle beteiligten Fraktionen ziehen. Politikerinnen und Politiker, Technologieskeptiker und -skeptikerinnen, Journalistinnen und Journalisten, die Wissenschaft, die Liste ließe sich beliebig fortsetzen.

Anzeige

Die zentralen Irrtümer zu identifizieren und sie sich bewusst zu machen, ist heute notwendiger denn je: Die Bundesregierung hat gerade ein Förderprogramm für künstliche Intelligenz beschlossen, nach der Einführung der EU-Datenschutz-Grundverordnung im Mai zeichnen sich langsam die ersten – nicht immer geplanten – Folgen ab. Gleichzeitig vergeht keine Woche, in der Menschen nicht auf die eine oder andere Form Algorithmen anprangern und in den Himmel loben. Leider oft, ohne wirklich klar zu benennen, was genau ein Algorithmus ist und was so ein Softwareartefakt eigentlich kann.

Weder Politik noch die breite Öffentlichkeit können einen am Wohl der Menschen und der Gemeinschaft ausgerichteten Einsatz neuer Technologien gestalten, wenn Argumente weiterhin auf Treibsand stehen. Das Adressieren der folgenden Irrtümer schafft hoffentlich ein solideres Fundament für die Debatten der kommenden Jahre.

Irrtum 1: Die Anwendung von Ethik kann man in Computerprogrammen formulieren

Softwaresysteme finden sich zunehmend in Kontexten wieder, in denen von ihnen ethisches oder auch moralisches Verhalten gefordert wird: Selbstfahrende Autos müssen künftig entscheiden, ob sie eher einen Erwachsenen umfahren oder ein Kind. Eine Software soll in Österreich künftig automatisch bewerten, welche Chancen Arbeitssuchende auf eine Stelle haben. Die Diskussion dreht sich dabei häufig um die Frage, wie man Ethik in diese Systeme hineinprogrammieren kann, wie also gewünschtes Verhalten zu automatisieren ist.

Anzeige

Grundsätzlich meint die Operationalisierung von Ethik die Übersetzung abstrakter Regeln und Modelle guten Verhaltens in berechenbare, deterministische und objektive Regelsysteme. Diese können Menschen dann unabhängig überprüfen und ausprogrammieren, um sicherzustellen, dass sich der betreffende Roboter oder das betreffende Softwaresystem ethisch verhält.

Leider ist das ein Mythos. Aktuelle Ansätze scheitern und produzieren entweder Systeme, die in der realen Welt schlicht nicht funktionieren, oder viel schlimmer: zutiefst diskriminierende Ergebnisse. Am renommierten Massachusetts Institute of Technology (MIT) wollten Wissenschaftlerinnen und Wissenschaftler beispielsweise mithilfe der Plattform Moral Machine wichtige ethische Entscheidungen aushandeln – etwa, wie sich ein Auto auf der Straße zu verhalten habe. Doch das führte unter anderem zu dem Ergebnis, das Auto solle lieber Kriminelle überfahren als Hunde (wie auch immer das Auto eine Verurteilung soll feststellen können).

Die Vorstellung, dass sich Ethik in einfache Regeln gießen lässt, mag in Videospielen funktionieren. In der realen Welt sind ethische Entscheidungsprozesse aber komplexe soziale und psychologische Vorgänge, die trotz identischer ethischer Regeln je nach sozialem, politischem, religiösem oder kulturellem Hintergrund der entscheidenden Person zu ganz unterschiedlichen Ergebnissen führen können.

Um die Regeln einer Ethikmaschine zu programmieren, müsste man sie aller sozialer Unschärfe und Menschlichkeit berauben. Nur wäre das vermutlich stark diskriminierend, weil genau eine Wertvorstellung als normal definiert würde – die derer, die solche Systeme entwickeln.

Und man würde das Problem auch völlig unzulässig vereinfachen: Warum sollten Entscheidungen basierend auf einem viel zu simplen Modell zu annehmbaren ethischen Entscheidungen in dieser heterogenen Welt führen? Ethische Entscheidungen sind viel komplexer, als man das in Softwaresystemen abbilden könnte. Darum kann die Automatisierung einer Ethik nur scheitern.

Was ist eigentlich Intelligenz?

Irrtum 2: Daten erzeugen Wahrheit, und falls nicht, braucht man einfach mehr Daten

In der öffentlichen Debatte hat sich glücklicherweise die Erkenntnis durchgesetzt, dass die Datensätze, die uns zur Verfügung stehen, durchsetzt sind mit Vorurteilen und Fehlannahmen. Jeder Datensatz ist stark beeinflusst von den Wert- und Weltvorstellungen der Personen, die die Daten strukturiert haben.

Trotzdem hält sich ein Irrtum hartnäckig: dass man nur die Vorurteile erkennen muss, um sie auszuräumen, um die Datensätze zu reparieren. So versucht man zum Beispiel, weitere Daten zu erfassen, die bestimmte Annahmen ausgleichen sollen, entfernt andere Werte oder ändert Datentypen, um breitere Facetten der Welt abbilden zu können. Zum Beispiel überarbeitet man das Feld Geschlecht so, dass man nicht mehr nur Mann und Frau eintragen kann, sondern jede Geschlechtsidentität. Oder man trainiert eine Gesichtserkennung nicht mehr nur mit den Porträtfotos von Menschen mit weißer Hautfarbe, sondern mit einer diversen Auswahl.

Diese Reparaturen können Datensätze definitiv verbessern, sogar massiv, und bestimmte Diskriminierungsvektoren ausblenden. Sie werden durch die Anpassungen aber niemals komplett eliminiert. Und manchmal erzeugen diese kleinen Reparaturen sogar neue Fehler, die der Datensatz vorher nicht hatte.

Die Frage kann daher nicht sein, wie man Vorurteile aus den Datensätzen entfernt. Sondern wie man solch implizite Annahmen und Vorurteile sichtbar und analysierbar macht. Wie man bewerten kann, auf welche Art und Weise ein Datensatz problematisch ist. Eine objektive und abstrakte Wahrheit, wie man sie sich gerne von neutralen Maschinen erhoffen würde, kann es niemals geben. Sie ist immer gefärbt durch die Realität der Entwickelnden – egal, wie viele Daten man noch hinzufügt.

Irrtum 3: In 20 Jahren gibt es eine künstliche Intelligenz, die genauso gut wie oder besser ist als menschliche

Dieser Satz wird unverändert seit mindestens 50 Jahren verbreitet. Künstliche Intelligenz ist immer fast da, aktuelle Entwicklungen sind immer sehr vielversprechend. Und 20 Jahre später hat sich trotzdem nicht viel getan.

Für dieses Phänomen gibt es viele Gründe. Einer davon lautet, dass es extrem unklar ist, was genau eigentlich Intelligenz sein soll. Die Definition von Intelligenz entwickelt sich ständig weiter, verbreitert sich, verändert sich.

Trotzdem versuchte man früher, über komplexe Regelsysteme und Logikbäume, die Welt abzubilden und sie Maschinen damit verständlich zu machen. Nachdem man damit aber niemals wirklich relevante Ergebnisse erreichen konnte, hat man sich heute vor allem einem anderen Ansatz zugewendet: Statt des Menschen sollen Maschinen ein Weltmodell aufbauen. Dafür wirft man möglichst große Mengen von Daten auf Maschinen, die aus diesen Daten lernen sollen. Und plötzlich erkennt Google auf meinen Fotos Katzen, beeindruckend.

Aber heute populäre Technologien wie etwa neuronale Netze sind weit entfernt von allem, was wir Intelligenz nennen würden. Sie sind Systeme automatisierter Statistikanwendung, die auf extrem spezielle Anwendungsfälle trainiert wurden und auseinanderfallen, sobald die Eingabe den engen Korridor der ihnen bekannten Daten verlässt.

Die sogenannte Intelligenz dieser Systeme ist eine, die Beobachterinnen und Beobachter ihnen zuschreiben. Es ist ein sehr menschliches Verhalten, Objekten und Strukturen in der Welt Intelligenz zu unterstellen – wie dem Auto, das nicht anspringen will, wenn man nicht nett zu ihm ist. Aber das sind psychologische Prozesse des Menschen, keine Leistungen der Maschine.

Selbstfahrende Autos beispielsweise haben große Probleme mit Menschen auf der Straße, weil sie sich unvorhersehbar verhalten. Viele Entwickler schlagen schon vor, die Bewegungsfreiheit von Menschen im Straßenverkehr noch weiter einzuschränken, damit die selbstfahrenden Autos klarkommen. Was ist daran intelligent?

Wir könnten ein trainiertes neuronales Netzwerk nehmen, das auf Bildern Katzen erkennt, all die statistischen Werte extrahieren und in ein mathematisches Gleichungssystem umwandeln, das ebenfalls Katzen erkennen kann. Und das wäre ein beeindruckendes Gleichungssystem! Aber auch das wäre nicht intelligent.

Letztlich existiert künstliche Intelligenz nicht. Und sie ist auch nicht nah. Es existieren leistungsfähige Statistiksysteme, denen durch einen attraktiven Namen eine gewisse Magie zugesprochen werden soll. "Künstliche Intelligenz" ist nur ein Werbebegriff.

Gesetze als Code? Funktionieren nicht

Irrtum 4: Diskriminierung durch Algorithmen ist schlimmer als Diskriminierung durch Menschen

Dieser Irrtum ist in der technikkritischen Szene sehr beliebt, aber bei Weitem nicht nur dort. Automatische Entscheidungssysteme haben heute eine massive Macht: Sie entscheiden, wie teuer eine bestimmte Versicherung für mich ist, ob ich – wie in Österreich – vom Arbeitsamt eine Förderung bekomme oder nicht, oder im Falle von autonomen Kampfdrohnen potenziell sogar, wer getötet wird.

Diese Systeme werden zu Recht stark kritisiert: Wie kann es sein, dass solche Entscheidungen – im wahrsten Sinne über Leben und Tod – an irgendwelche Maschinen ausgelagert werden?

Aber nicht die Systeme sind der Kern des Problems, sondern die Menschen, die sie bauen. Während der Entwicklung dieser Systeme automatisieren Personen bestehende, tief in organisatorische Prozesse integrierte Formen der Diskriminierung und strukturellen Gewalt. Der Unterschied zu vorherigen Entscheidungsprozessen besteht lediglich darin, dass nun eine Maschine entscheidet, ob ich einen Kredit bekomme, nicht der Mensch. Zwar minimiert der Prozess die Möglichkeit, noch mal über eine Entscheidung zu reden. Aber strukturell ändert sich wenig: Schon heute sind Entscheidungen von Menschen massiv computerisiert. Menschen bestimmen formal über die Kreditvergabe, aber wenn der Schufa-Algorithmus Nein sagt, dann ist egal, wie freundlich ich mit der Person reden kann, die die Ablehnung abnickt. Die Entscheidung bleibt dieselbe.

Man könnte jetzt argumentieren, dass die dem Prozess und seinen Datenstrukturen innewohnende Benachteiligung durch die Automatisierung sichtbar und damit änderbar gemacht würde. Doch ehrlicherweise ist natürlich die in viele Prozesse eingebaute Diskriminierung kein Fehler oder Nebeneffekt, sondern Ziel des Prozesses. Diese politischen und sozialen Fragen als Technikproblem zu bezeichnen, verschleiert den Kernpunkt und akzeptiert sogar implizit die bestehenden Diskriminierungsstrukturen. Die Technik kann die Ausübung oft unkontrollierter struktureller Gewalt nicht lösen.

Irrtum 5: Gesetze und Verträge können in Code ausgedrückt werden, um ihre Anwendung zu standardisieren

Nicht nur in der Blockchain-Szene ist die Idee beliebt, Gesetze und Verträge in Programmcode auszudrücken. Auch Datenschützerinnen und Datenschützer diskutieren immer wieder, wie sich beispielsweise die Regeln der EU-Datenschutz-Grundverordnung automatisiert durchsetzen ließen. Die Hoffnung der Befürworter solcher Ansätze: faire, transparente und objektive Systeme der Regelauslegung zu schaffen.

Leider funktionieren so weder Verträge noch das Gesetz. Natürlich versuchen sowohl der Gesetzgeber wie auch Anwälte und Anwältinnen, ihre Regelwerke so präzise und wasserdicht wie möglich zu formulieren, alle Sonderfälle zu beschreiben, alle Begriffe eindeutig zu definieren und zukünftige Szenarien vorherzusehen. Und es ist ja nicht so, als würde dieses System nicht funktionieren. In den meisten Fällen greift es. Aber nicht in allen.

Wenn Gesetze und Verträge wirklich so einfach wären, wie einige Technologen sich das vorstellen, hätten wir weit weniger Gerichte und deutlich weniger Anwaltskanzleien. Seit Jahrzehnten versuchen Wissenschaftler, kleine Teile des Rechts – wie zum Beispiel Teile des Steuerrechts – in Code abzubilden. Alle diese Ansätze sind gescheitert, weil die Modelle beziehungsweise der Code zu simpel waren, um die Komplexität der Welt abzubilden. Denn an irgendeinem Punkt muss eine Software die gegebene Situation interpretieren und schließlich das Gesetz anwenden. Das besteht aber nicht aus mathematischen Formeln, sondern muss immer wieder neu ausgelegt werden. Genau deshalb gibt es ja Erwägungsgründe, die erklären, wie ein Gesetz gemeint ist. Der nackte Text alleine bildet die Realität meistens nicht ab.

Das ist eine Stärke des Rechts: Diese Flexibilität erlaubt es uns, auch verhältnismäßig alte Gesetze immer noch mehr oder weniger sinnvoll anzuwenden. Gesetze als Code würden funktionieren, wenn nie etwas schiefginge und die Welt sich an die Vorstellung der Computer hielte. Die Realität sieht jedoch anders aus.

Open Source ist nicht gleich Freiheit

Irrtum 6: Digitale Freiheit drückt sich in der vollständigen Autonomie des Individuums aus

Viele Debatten über das Internet drehen sich um Freiheit: Freiheit von tyrannischen Gesetzen, Freiheit von bösen Konzernen und Regierungen und den Regeln, die sie uns aufzwingen.

Als Gegenentwurf werden gerne technische Lösungen präsentiert, sehr häufig aus dem Open-Source-Umfeld: Software, die sich jede und jeder umsonst runterladen und einsetzen kann, um sich zu befreien. Der einzige Weg, sich nicht dem System zu unterwerfen, ist die Flucht in totale Autonomie. Das zugrunde liegende Autonomieverständnis ist dabei ein Ausdruck negativer Freiheit: der Freiheit von Zwängen. Das autonome Individuum, das seine freien, eigenen Entscheidungen trifft.

Bei genauerer Betrachtung ist dieses Verständnis von Autonomie allerdings vor allem ein Ausdruck extremer Privilegiertheit: Wer sich mithilfe von Technik aus den Zwängen befreien will, braucht erst einmal ein Grundverständnis der digitalen Möglichkeiten. Dafür benötigt man Zugriff auf eine technische Ausbildung, genug Freizeit, um sich mit technischen Spielereien zu beschäftigen, und genug Geld, um sich eigene Hardware und Server zu leisten.

Selbst wenn eine Person Zugang zu all diesen Privilegien bekäme, wäre dieser Autonomiebegriff immer noch normativ und (ab)wertend. Was ist denn, wenn eine Person ihre Zeit gar nicht mit der Verwaltung von irgendwelchen Servern verbringen möchte, sondern lieber Lyrik von Georg Trakl lesen würde? Ist diese Person nun schuld an ihrer Unterdrückung? Ist nicht vielmehr ein essenzieller Teil unseres Freiheitsbegriffes die Arbeitsteilung, die es uns erlaubt, gerade eben nicht alles selbst tun zu müssen, sondern selbst zu entscheiden, wofür wir uns begeistern und wofür nicht und wie wir unsere Zeit verbringen wollen? Ein Freiheitsbegriff, der dabei stark von einer Verbindung aller in einer Gesellschaft ausgeht, nicht reinem Individualismus?

Wenn das Internet als ein Werkzeug der Freiheit wirken soll, dann kann ein digitaler Freiheitsbegriff sich nicht in isolationistischen Individualismus flüchten: Der digitale Prepper, der sich auf jedwede Katastrophe vorbereitet, kann nicht das gesellschaftliche Ziel sein. Die Gesellschaft muss Konzepte entwickeln, die auch Menschen ohne technische Begeisterung oder Interessen eine ermächtigende Teilnahme am digitalen Teil des Lebens garantieren. Autonomie ist da eine Sackgasse.

Die Sozialisierung des Digitalen

Die Analyse der zentralen Irrtümer darf keine intellektuelle Fingerübung bleiben. Aus den oben beschriebenen Punkten folgt ziemlich direkt, wie sich bestimmte Diskurse weiterentwickeln. Was alle Irrtümer vereint, ist die Erkenntnis, dass unser Leben sehr viel stärker durch unsere sozialen Verbindungen, unsere kulturellen Hintergründe und persönlichen Geschichten gelenkt wird, als das in technischen Systemen oft abgebildet ist. Genauso wie die Digitalisierung versucht, die Welt der Software zugänglich zu machen, muss jetzt die Sozialisierung des Digitalen vorangetrieben werden: die Gestaltung auch unseres digitalen Lebens als kommunikatives, humanes Netzwerk zum Wohle der Menschen.

Startseite
Anzeige