Anfang 2016 wurde die selbstlernende Software AlphaGo weltberühmt, als sie den koreanischen Großmeister Lee Sedol im Spiel Go schlug. Das Programm der Firma DeepMind hatte zunächst Millionen von Partien zwischen Menschen analysiert und ihre Fähigkeiten anschließend im Spiel gegen sich selbst verfeinert. Seither hat DeepMind seine Erfindung weiterentwickelt. AlphaGo Zero heißt die aktuelle Version, für "null menschliches Wissen". Sie ist praktisch unschlagbar.

Anders als die erste Version bekam AlphaGo Zero nur die Regeln des Spiels beigebracht, sonst nichts. Der Rest war sehr schnelles Learning by Doing. Oder, wie dieser Bereich des maschinellen Lernens im Fachjargon heißt: Reinforcement Learning. Nach 72 Stunden Training mit sich selbst besiegte das neue System das Programm von 2016 in hundert von hundert Partien, schreiben die Entwickler im Fachmagazin Nature.

DeepMind, ein Tochterunternehmen des Alphabet-Konzerns, zu dem auch Google gehört, spricht von "übermenschlicher Performance". Die soll der Go-Algorithmus in Zukunft auch jenseits von Spielen liefern. Mit geringfügigen Modifikationen soll er unter anderem helfen, neue medizinische Wirkstoffe zu finden, wie CEO Demis Hassabis im Gespräch mit Quartz sagte. Den Code will er allerdings unter Verschluss halten. AlphaGo Zero soll eine Blackbox bleiben, wie es viele andere Systeme mit künstlicher Intelligenz (KI) auch sind. Sogenannte Deep-Learning-Netzwerke, die den derzeitigen KI-Boom ausgelöst haben, sind auf einer bestimmten Ebene selbst für ihre Schöpfer undurchschaubar. Manche Wissenschaftler, Politiker und Aktivisten halten das für hochproblematisch. Nicht, weil sie Angst hätten vor einer Machtübernahme der Maschinen und dem Ende der Menschheit. Sondern weil sie automatisierte Entscheidungen und Fehler befürchten, die im Nachhinein niemand erklären und künftig verhindern kann.

Keine Blackbox-Algorithmen in öffentlichen Institutionen

Einen Tag vor DeepMinds offizieller Vorstellung von AlphaGo Zero hatte die Forscherin Kate Crawford die "zehn wichtigsten Empfehlungen des Jahres zum Thema künstliche Intelligenz" veröffentlicht. Crawford ist Mitgründerin des AI Now Institute, das den gesellschaftlichen Einfluss von KI auf Arbeit, Gesundheit, soziale Ungleichheit und Ethik untersucht. Ihre erste Empfehlung lautet: Öffentliche Einrichtungen von zentraler Bedeutung – wie jene, die für Justiz, Gesundheitsversorgung, Sozialhilfe und Bildung zuständig sind – sollten keine Blackbox-Algorithmen nutzen.

Zu viele derartige Programme stellen sich laut Crawford im Nachhinein als diskriminierend oder fehlerhaft heraus, mit potenziell gravierenden Folgen für die Betroffenen: Häftlinge, deren Rückfälligkeitsrisiko von einem einseitig trainierten Algorithmus zu ihrem Nachteil berechnet wird, weil sie Afroamerikaner sind, oder Asthma-Patienten mit Lungenentzündung, die nach Hause geschickt werden sollten, weil eine Software die Daten einer Uni-Klinik auf unerwartete Weise korreliert hatte.

Sie wünscht sich deshalb vor jeder Veröffentlichung von KI-Systemen "rigorose Tests, um sicherzugehen, dass sie nicht einseitig oder fehlerhaft sind", weil irgendetwas mit den Trainingsdaten, den Algorithmen oder anderen Elementen nicht stimmt. Vor und nach der Zulassung neuer Medikamente gebe es schließlich auch vorgeschriebene Tests. Dementsprechend sollten Unternehmen ihre künstlichen Intelligenzen nach der Veröffentlichung beobachten, und zwar mit größtmöglicher Transparenz und unter Einbeziehung jener betroffenen Gruppen, die im jeweiligen Anwendungsbereich häufig benachteiligt werden. Außerdem müssten laut Crawford sowohl neu entstehende, als auch bereits verwendete Trainingsdaten für selbstlernende Systeme besser dokumentiert und nachträglich von Experten auf Einseitigkeit untersucht werden.

Das klingt nach einem Algorithmus-TÜV, wie ihn unter anderem Bundesjustizminister Heiko Maas seit Jahren fordert, nur detaillierter. Aber so wie Maas und zuletzt der Wissenschaftliche Dienst des Bundestages lässt auch Crawford viele Fragen offen: Wer soll die künstlichen Intelligenzen und ihre Entscheidungen untersuchen? Wer soll definieren, welche KI-Outputs erwünscht oder neutral sind? Welche Rolle soll der Staat dabei spielen? Und vor allem: Müsste das alles nicht längst passieren?

Forscher von OpenAI, einem industrienahen Non-Profit-Unternehmen, formulieren die Situation so: "Fortschrittliche KI entwickeln und sie erst später sicher machen, ist wie das Internet aufbauen und anschließend versuchen, es sicher zu machen." Das ist keine hypothetische Warnung: Als sich abzeichnete, wie groß und weltverändernd das Netz werden würde, war es schon zu spät, Sicherheit noch zu einem Grundpfeiler des Designs zu machen. Techniken wie verschlüsselte Datenübertragungen wurden erst nachträglich und unvollständig eingeführt, deshalb sind das Internet und seine Nutzer bis heute auf unzähligen Ebenen angreifbar und manipulierbar.