Schon heute entscheiden Algorithmen, welche Werbung jemand auf Facebook eingeblendet bekommt oder welche Preise auf Amazon erscheinen. Durch künstliche Intelligenz können Systeme auch in Bewerbungsprozessen eine Vorauswahl treffen, Kundenanfragen kategorisieren oder bestimmen, welche Person einen Kredit erhält und welche nicht.

Das muss erst einmal nicht schlecht sein, weil solche Technologien Menschen unterstützen und sie schneller Entscheidungen treffen können. Im schlimmsten Fall können die Systeme den Alltag von Bürgerinnen und Bürgern allerdings massiv beeinträchtigen, etwa wenn Regierungen künstliche Intelligenz zur vollständigen Überwachung und Kontrolle ihrer Bürger verwenden (wie es China mit dem Social-Credit-System plant) oder wenn Entscheidungen auf Basis von fehlerhaften Daten getroffen werden.

Wie also könnte ein ethischer Umgang mit künstlicher Intelligenz aussehen? Über diese Frage haben 52 Expertinnen und Experten im Auftrag der EU-Kommission monatelang diskutiert. Am Montag haben sie entsprechende Richtlinien vorgestellt. In dem knapp 40-seitigen Papier fordern sie eine vertrauenswürdige künstliche Intelligenz, deren Funktionsweise nicht gegen Gesetze verstößt, in der ethische Prinzipien berücksichtigt sind und die auf einem robusten technischen und gesellschaftlichen Rahmen beruht.

Checkliste für künstliche Intelligenz

Mit ihren ethischen Richtlinien will sich die EU-Kommission von China und den USA absetzen. Die beiden Nationen liefern sich derzeit einen Wettstreit, wer die weltweite Führungsrolle in der Entwicklung und beim Einsatz künstlicher Intelligenz einnimmt. Auch die Europäische Union sieht enormes Potenzial in der Technologie. Europa müsse präsent sein in dem Feld der künstlichen Intelligenz, sagte Roberto Viola, Generaldirektor der Generaldirektion Kommunikationsnetze, Inhalte und Technologien, vor der Veröffentlichung der Richtlinien in Berlin. Man müsse sich aber der Vorteile, der Risiken und der Herausforderungen bewusst sein, so Viola. Während in China die Technologie eher vom Staat kontrolliert sei und in den USA eher von Unternehmen getrieben werde, wolle man in der EU eine künstliche Intelligenz, die die Rechte und Bedürfnisse des Menschen berücksichtige. "Wir haben versucht, unsere Richtlinien so integrativ wie möglich zu gestalten", sagte der Generaldirektor.

In dieser Aussage spiegelt sich die schwierige Abwägung der Europäischen Union wider: Sie will einerseits der Industrie ermöglichen, künstliche Intelligenz zu entwickeln, und sie dabei auch finanziell unterstützen, um nicht wieder einmal eine wichtige technologische Neuerung zu verpassen. Andererseits sollen sich die Unternehmen an bestimmte Regeln halten, sodass die Interessen von Privatpersonen abgedeckt sind und auch die Interessen der Zivilgesellschaft gewahrt bleiben. Im Prinzip erhoffen sich die Politikerinnen und Politiker eine ähnliche Wirkung, wie sie sie durch die Datenschutz-Grundverordnung (DSGVO) erzielt haben: dass andere Länder nach Europa schauen und die dort geltenden Regelungen als Maßstab dient (auch wenn das Interesse zumindest bei der DSGVO bisher vor allem theoretisch ist). "Europa steht für eine Marke, und die heißt Vertrauen", sagte Viola.

Unternehmen, Organisationen oder Länder, die künstliche intelligente Systeme entwickeln, sollen dem jetzt veröffentlichten Papier zufolge daher vier Grundprinzipien einhalten: Künstliche Intelligenz soll die menschliche Autonomie respektieren, gesellschaftlichen Schaden vermeiden, fair agieren und erklärbar bleiben. Diese allgemeinen Prinzipien konkretisieren die Expertinnen und Experten in weiteren Anforderungen für eine auf den Menschen fokussierte künstliche Intelligenz. So sollen Personen etwa das Recht darauf haben, dass eine Entscheidung nicht völlig automatisiert getroffen wird, wenn diese sie benachteiligt. Bei der Kreditvergabe könnte das zum Beispiel bedeuten, dass ein Kunde ein Recht darauf behält, mit einer Bankmitarbeiterin zu sprechen, wenn sein Kredit abgelehnt wird.

Auch sollen die Systeme Menschen nicht diskriminieren und dazu präventiv so entwickelt werden, dass man die Gefahr unbeabsichtigter Folgen minimiert. Ein Unternehmen müsste vor dem Einsatz dann beispielsweise testen, ob die künstliche Intelligenz bestimmte Personengruppen benachteiligt oder abwertet. Wie wichtig das sein kann, verdeutlicht ein Beispiel von Google: Der Bilderalgorithmus der Suchmaschine erkannte schwarze Menschen nicht als Menschen, sondern ordnete sie als Gorillas ein.  

Für die Umsetzung empfehlen die EU-Experten daher unter anderem, Systeme vor dem Einsatz zu testen und die Vollständigkeit der Daten zu berücksichtigen. Diskriminierungen wie im Fall von Google könnten etwa durch diverse Datensätze verringert werden, in dem ein Unternehmen ein System beispielsweise mit Fotos von Menschen weltweit trainiert. Die Expertinnen raten zusätzlich zu weiteren Maßnahmen: So kann ein diverses Team bei der Vermeidung solcher Fehler hilfreich sein, genauso ein gesellschaftlicher Dialog oder Weiterbildung sowohl von Mitarbeitern als auch von Bürgerinnen.

Nichts ist nicht verhandelbar

Die Expertengruppe hat eine Checkliste mit spezifischen Fragen entwickelt, an denen sich Akteure, die eine künstliche Intelligenz bauen, orientieren können: Haben sie verifiziert, wie ihr System in unerwarteten Situationen und unbekannten Umgebungen reagiert? Haben sie Vorkehrungen getroffen, um zu verhindern, dass sich Menschen bei der Arbeit zu sehr auf dieses System verlassen? Haben sie die Art und den Umfang ihrer Datensätze untersucht, enthalten sie persönliche Informationen? Haben sie die Repräsentativität der Daten bedacht?

Bindend sind die Leitlinien der Expertengruppe nicht. Das Papier ist ein Baustein in der Strategie zur künstlichen Intelligenz, die die EU im April 2018 vorstellte. Dieser Rahmenplan soll die Wettbewerbsfähigkeit der europäischen Industrie fördern. So will der Staatenbund unter anderem 20 Milliarden Euro bis 2020 in diverse Projekte rund um künstliche Intelligenz investieren. Im Rahmen dieser Strategie wollen die Politikerinnen und Politiker auch ethische Grundfragen klären. Im Juni 2018 hat die EU-Kommission daher Expertinnen und Experten damit beauftragt, entsprechende Richtlinien zu entwickeln. In dem Gremium kamen Menschen aus Unternehmen, Universitäten, Verbänden sowie gemeinnützigen Organisationen zusammen.

Einen ersten Entwurf ethischer Richtlinien stellte die Gruppe schon im Dezember vor. Europäische Bürgerinnen und Bürger konnten über eine Onlineplattform weitere Sorgen und Ängste einbringen, mehr als 500 Kommentare gingen ein. Die Expertengruppe hat diese Anmerkungen in ihrem jetzigen Papier berücksichtigt. In einem zweiten Schritt wird das Team bis voraussichtlich Juni 2019 weitere Handlungsempfehlungen für die Kommission erarbeiten. Im Sommer soll eine Phase mit verschiedenen Interessenvertretern starten, die die Leitlinien einem Praxistest unterziehen. 2020 soll das Papier unter der Berücksichtigung der dort erlangten Ergebnisse angepasst werden. 

"Das ist viel zu wenig"

Der Philosophie- und Ethikprofessor Thomas Metzinger, der selbst im Expertenrat saß, lobte die Richtlinien grundsätzlich. Sie seien das Beste, was es derzeit zum Thema gebe, etwas Vergleichbares hätten nicht einmal die USA oder China. Allerdings kritisierte er, dass viele wichtige Punkte im endgültigen Papier weggefallen seien. So hatte er gemeinsam mit dem Machine-Learning-Experten Urs Bergmann, Forschungsleiter bei Zalando, eine Liste mit roten Linien entwickelt, die nun nicht mehr Teil des Papiers ist. Diese Punkte sollten nicht verhandelbar sein, sie sollten die europäischen Vorstellungen dessen repräsentieren, was künstliche Intelligenz dürfen soll und was eben ganz konkret nicht.

Öffentliche oder private Institutionen sollten Bürgerinnen beispielsweise nicht automatisiert identifizieren oder Staaten ihre Bürger nicht mittels künstlicher Intelligenz bewerten dürfen. Diese Sorge wird unter anderem durch die Tests eines Social-Credit-Systems in China geschürt, das Menschen für aus Sicht des Staates wünschenswertes Verhalten belohnen und für weniger wünschenswertes Verhalten bestrafen soll. Nach dem Wunsch der EU-Experten sollte es außerdem nicht möglich sein, ein künstliches Bewusstsein zu erzeugen, also ein System, das möglicherweise fühlen kann wie der Mensch (technisch ist das noch nicht möglich, selbst das Gehirn lässt sich noch nicht abbilden). Systeme sollten, so eine weitere rote Linie der Experten, zudem nicht eigenständig ethische Entscheidungen treffen und ohne menschliche Kontrolle handeln können. Wichtig wäre diese rote Linie zum Beispiel bei autonomen Waffensystemen, die dementsprechend nicht selbst entscheiden könnten, ob sie eine Person töten oder nicht. Auch sollten Entscheidungen einer künstlichen Intelligenz für Experten immer nachvollziehbar bleiben. Das würde wiederum auch Diskriminierungen vorbeugen.

Abgeschwächt finden sich einige dieser Punkte zwar noch im Papier, sie werden aber nicht mehr als rote Linien gekennzeichnet und bleiben dadurch sehr vage. Sollten die Richtlinien mal geltendes Recht werden, wären diese Punkte folglich durchaus noch verhandelbar. Metzinger ärgerte sich vor allem über den Einfluss der Industrie: Die Expertengruppe habe aus vier Ethikern und 48 Nicht-Ethikern bestanden. Er forderte auch deshalb ein Europäisches Exzellenzzentrum für KI-Ethik, dessen Expertise dann sowohl für die Politik als auch für Unternehmen zur Verfügung stünde.  

Metzinger ist nicht das einzige Mitglied der Expertengruppe, das die jetzt erarbeiteten Richtlinien für unzulänglich hält. Auch der europäische Verbraucherverband BEUC bemängelte das Ergebnis. "Das ist viel zu wenig", sagte dessen stellvertretende Generaldirektorin Ursula Pachl zu netzpolitik.org. Die entscheidende Diskussion müsse sich um konkrete Gesetze drehen. Auch Pachl kritisierte die Zusammensetzung des Expertengremiums als zu "industriedominiert".