© Getty Images

Es vergeht kaum ein Tag, an dem es nicht auf Deutschlands Straßen kracht und scheppert. Im vergangenen Jahr kam es zu mehr als 2,3 Millionen Blechschäden. Diese Unfälle, genau wie diejenigen, bei denen Menschen verletzt werden, könnten sich in der Zukunft um bis zu 90 Prozent verringern. Und zwar dank Künstlicher Intelligenz (KI). Doch die Vision von Städten, in denen autonome Autos wie von Geisterhand gesteuert umherfahren, erzeugt gleichzeitig Angst. Denn auch beim automatischen Fahren sind Unfälle unvermeidbar, und die Frage nach der Schuld stellt sich umso dringlicher. Wer ist verantwortlich, wenn mein Fahrzeug jemandem die Vorfahrt stiehlt oder nicht rechtzeitig bremst? Was geschieht, wenn eine Kollision unabwendbar ist? Zu diesem Szenario existieren verschiedene Gedankenexperimente: Sollte das Auto geradeaus weiterfahren, etwa auf eine schwangere Frau zu? Oder sollte es seinen Kurs auf eine Spur wechseln, auf der sich vielleicht gerade ein älteres Ehepaar befindet? Wer entscheidet, wer haftet? Das hohe Konfliktpotenzial und die zeitkritische Dimension machen autonomes Fahren zu dem Paradebeispiel für den Zusammenhang zwischen KI und Ethik schlechthin. Es wird deutlich: Wer sich mit Künstlicher Intelligenz beschäftigt, kommt um Fragen der Ethik nicht herum.

Künstliche Intelligenz erschafft nützliche Alltagshelfer

Künstliche Intelligenzen sind aus einem Teilgebiet der Informatik hervorgegangen und haben schon lange Einzug in den Alltag der Menschen gehalten. Meistens erweisen sie sich als überaus nützlich und sind einfach zu handhaben. Da sind sprachgesteuerte Assistenten wie Siri, die Anrufe tätigen, Nachrichten versenden, ihrem Nutzer vorausschauend Vorschläge unterbreiten, beispielsweise eine Verabredung abzusagen. Andere KI's übersetzen von einer Sprache in die andere, korrigieren Rechtschreibfehler bei Suchanfragen, navigieren oder kommunizieren als Chatbot im Online-Kundenservice. Sie übernehmen klar definierte Aufgaben und greifen auf das zurück, was der Mensch ihnen beigebracht hat. Dabei arbeiten sie mit Verfahren wie Machine und Deep Learning. Das bedeutet, die Programme durchforsten riesige unstrukturierte Datenmengen und erkennen darin Muster. Anhand dieser Muster lernen sie weiter.

Algorithmen sind so gut wie die Annahmen, auf denen sie beruhen

Doch genau hier liegt das Problem: Beim Auswerten großer Datenmengen wird mitunter Gleiches ungleich und Ungleiches gleich behandelt. Die Folge können unfaire Systeme sein. In einem großen Unternehmen etwa sortierte eine Künstliche Intelligenz Bewerbungen vor und bewertete die von Frauen im Vergleich zu denen der Männer als schlechter. Die Programmierer hatten auf eine eingeschränkte Datenbasis zurückgegriffen – nämlich die aus den vergangenen zehn Jahren. Und hier waren überwiegend männliche Bewerber eingestellt worden. Der Algorithmus hatte entsprechend gelernt, die Eigenschaft "männlich" als positiv zu bewerten. Von einem Arbeitsamt wurde dagegen bekannt, dass dort eine Software im Einsatz war, die ermitteln soll, wie viel Unterstützung und Weiterbildung den dort gemeldeten Menschen zustehe. Die Berechnung kam zu dem Schluss, dass einer 50-jährigen Frau mit Kind aus einem sozialen Brennpunkt besonders wenig Unterstützung zuteilwerden solle. In der Medizin sind diskriminierende Algorithmen besonders gefürchtet, geht es hier doch mitunter um Leben und Tod.

Verantwortlich für das Versagen der Algorithmen sind wir Menschen.
Jörg Dräger und Ralph Müller-Eiselt, Autoren des Buches „Wir sind die intelligenten Maschinen“

Zwar durchforstet eine Künstliche Intelligenz schneller als jeder Mensch Studien aus Tausenden von wissenschaftlichen Zeitschriften und erstellt Vorschläge für die Diagnose. Was aber, wenn die Software irrt und das medizinische Fachpersonal daraufhin falsche Medikamente verabreicht? Zu manchen Krankheiten gibt es überdies kaum Forschungsdaten, Minderheiten und Kinder sind unterrepräsentiert. Algorithmen, die auf diesen Datensätzen beruhen, können gar nicht ausgewogen sein. Wie geht man damit um und wer ist verantwortlich? "Verantwortlich für das Versagen der Algorithmen sind wir Menschen", fassen die Autoren des Buches "Wir und die intelligenten Maschinen", Jörg Dräger und Ralph Müller-Eiselt, in einem Gastbeitrag der ZEIT zusammen. "Wir definieren ihre Ziele, programmieren ihren Code, entscheiden über ihren Einsatz. Deshalb sollten wir auch ihre Wirkung kontrollieren. Das erfordert mehr algorithmische Kompetenz und mehr ethische Verantwortung." Wie aber kann das gelingen?

Künstliche Intelligenz, die diskriminiert, sollte verhindert werden

Verzerrungen aufgrund von diskriminierenden KI-Systemen heißen Biases, und sie entstehen sowohl bei der Konzipierung als auch in der Anwendung. Eine Diskriminierung in der Eingabe liegt beispielsweise vor, wenn technische Vorgaben dazu führen, dass bestimmte Gruppen von Menschen anders behandelt werden als andere, etwa durch Sensoren, die nur bei heller Hautfarbe reagieren. Andere Diskriminierungsformen entstehen erst in der Anwendung und zeigen sich entsprechend auch erst in diesem Moment. "Um diesem Diskriminierungsproblem zu begegnen, werden aktuell verschiedene Ansätze diskutiert", fasst Susanne Beck, Professorin für Strafrecht, Strafprozessrecht, Strafrechtsvergleichung und Rechtsphilosophie an der Universität Hannover, in einem Beitrag für das Wissenschaftsjahr 2019 zusammen, das sich der Künstlichen Intelligenz verschrieben hat. "Dazu zählen Schulungen für Beschäftigte, die KI nutzen. Gefordert wird auch, dass Individuen gegen eine unrechtmäßige Diskriminierung durch KI-Systeme vorgehen können sollen. Eine Diskriminierung durch KI ließe sich auch durch eine unabhängige Instanz verhindern, die die Entscheidungen von lernenden Systemen kontrolliert und bewertet."

Digitale Ethik für ein gutes Leben im digitalen Zeitalter

Die Politik reagiert bereits. 2016 hatte der damalige Bundesverkehrsminister Alexander Dobrindt eine Kommission eingesetzt, die 20 ethische Regeln entwickelt hat, die weltweit die ersten Leitlinien für Fahrcomputer darstellen. Aus ihnen geht hervor, dass auch dann, wenn vollautomatisierte Fahrzeuge so programmiert werden können, dass immer die höchstmögliche Anzahl an Leben geschützt wird, der Wert eines jeden einzelnen Menschen aus ethischer Perspektive unantastbar bleibt. Fünf Menschenleben wiegen nicht mehr als eines. Außerdem soll die Software der selbstfahrenden Autos blind gegenüber bestimmten Merkmalen wie Alter, Geschlecht, körperliche oder geistige Konstitution sein, um so jedweder Diskriminierung vorzubeugen. Auf die Ethik-Kommission zum automatisierten und vernetzten Fahren folgte die Datenethik-Kommission. Bei ihr geht es in erster Linie um den Einsatz von Algorithmen und Fragen, die sich aus ganz konkreten Situationen ergeben. Etwa wenn für eine intelligente Hausalarmanlage keine Updates mehr angeboten werden und es infolgedessen zu einem Cyberangriff und einem Wohnungseinbruch kommt. Oder wenn ein Algorithmus die Kreditwürdigkeit eines Verbrauchers fehlerhaft einschätzt. Mit einem 230 Seiten umfassenden Gutachten empfehlen die Experten verschiedene Regulierungen und unter anderem die Schaffung einer EU-Verordnung für algorithmische Systeme. Die EU-Kommission hat ihrerseits eine Expertengruppe zur Ethik Künstlicher Intelligenz und Algorithmen eingesetzt, die im Juni 2019 Ratschläge für die Politik zusammenfasste. Die Experten fordern beispielsweise, dass Technologien Künstlicher Intelligenz nicht für "unverhältnismäßige Massenüberwachung von Individuen" durch Private erlaubt sein sollen.

Bei all diesen Initiativen und Auseinandersetzungen zur Künstlichen Intelligenz und Ethik geht es um nicht weniger als die Frage, wie man allen Menschen im digitalen Zeitalter ein gutes Leben ermöglichen kann. Und bei allen moralischen Dilemmata ist auch klar: Keine Künstlichen Intelligenzen einzusetzen, ist auch keine Lösung.



Zurück zur Übersicht