Anfang 2016 wurde die selbstlernende
Software
AlphaGo weltberühmt, als sie den koreanischen Großmeister Lee Sedol im
Spiel Go schlug. Das Programm der Firma DeepMind hatte zunächst Millionen von Partien zwischen Menschen analysiert und ihre Fähigkeiten anschließend im Spiel gegen sich selbst verfeinert. Seither
hat DeepMind seine Erfindung weiterentwickelt.
AlphaGo Zero heißt die
aktuelle Version, für
"null menschliches Wissen". Sie ist praktisch unschlagbar.
Anders als die erste Version bekam AlphaGo Zero nur die Regeln des Spiels beigebracht, sonst nichts. Der Rest war sehr schnelles Learning by Doing. Oder, wie dieser Bereich des maschinellen Lernens im Fachjargon heißt: Reinforcement Learning. Nach 72 Stunden Training mit sich selbst besiegte das neue System das Programm von 2016 in hundert von hundert Partien, schreiben die Entwickler im Fachmagazin Nature.
DeepMind, ein Tochterunternehmen des Alphabet-Konzerns, zu dem
auch Google gehört, spricht von "übermenschlicher Performance". Die soll der
Go-Algorithmus in Zukunft auch jenseits
von Spielen liefern. Mit geringfügigen
Modifikationen soll
er unter anderem helfen, neue medizinische Wirkstoffe zu finden, wie
CEO Demis
Hassabis im Gespräch mit Quartz
sagte. Den Code will er allerdings unter Verschluss halten.
AlphaGo Zero soll
eine Blackbox bleiben, wie es viele andere Systeme mit künstlicher Intelligenz (KI) auch sind. Sogenannte
Deep-Learning-Netzwerke, die den derzeitigen KI-Boom ausgelöst haben, sind auf einer bestimmten Ebene selbst für ihre Schöpfer undurchschaubar. Manche
Wissenschaftler,
Politiker und Aktivisten halten das für hochproblematisch. Nicht, weil sie Angst hätten vor einer Machtübernahme der Maschinen und dem Ende der Menschheit. Sondern weil sie automatisierte Entscheidungen und Fehler befürchten, die im Nachhinein niemand erklären und künftig verhindern kann.
Keine Blackbox-Algorithmen in öffentlichen Institutionen
Einen Tag vor DeepMinds offizieller Vorstellung von AlphaGo Zero hatte die Forscherin Kate Crawford die "zehn wichtigsten Empfehlungen des Jahres zum Thema künstliche Intelligenz" veröffentlicht. Crawford ist Mitgründerin des AI Now Institute, das den gesellschaftlichen Einfluss von KI auf Arbeit, Gesundheit, soziale Ungleichheit und Ethik untersucht. Ihre erste Empfehlung lautet: Öffentliche Einrichtungen von zentraler Bedeutung – wie jene, die für Justiz, Gesundheitsversorgung, Sozialhilfe und Bildung zuständig sind – sollten keine Blackbox-Algorithmen nutzen.
Zu
viele derartige Programme stellen sich laut Crawford im Nachhinein
als diskriminierend oder fehlerhaft heraus, mit potenziell gravierenden
Folgen für die Betroffenen: Häftlinge,
deren Rückfälligkeitsrisiko von einem einseitig trainierten Algorithmus zu ihrem Nachteil berechnet wird, weil sie Afroamerikaner sind, oder Asthma-Patienten mit Lungenentzündung,
die nach Hause geschickt werden sollten, weil eine Software die Daten einer Uni-Klinik auf unerwartete Weise korreliert hatte.
Sie
wünscht sich deshalb vor jeder Veröffentlichung von KI-Systemen
"rigorose Tests, um sicherzugehen, dass sie nicht einseitig oder
fehlerhaft sind", weil irgendetwas mit den Trainingsdaten, den
Algorithmen oder anderen Elementen nicht stimmt. Vor und nach der
Zulassung neuer Medikamente gebe es schließlich auch vorgeschriebene
Tests. Dementsprechend sollten Unternehmen ihre künstlichen Intelligenzen nach der
Veröffentlichung beobachten, und
zwar mit größtmöglicher Transparenz und unter Einbeziehung jener
betroffenen Gruppen, die im jeweiligen Anwendungsbereich häufig
benachteiligt werden. Außerdem
müssten laut Crawford sowohl neu entstehende, als auch bereits
verwendete Trainingsdaten für selbstlernende Systeme besser
dokumentiert und nachträglich von Experten auf Einseitigkeit
untersucht werden.
Das klingt nach einem Algorithmus-TÜV, wie ihn unter anderem Bundesjustizminister Heiko Maas seit Jahren fordert, nur detaillierter. Aber so wie Maas und zuletzt der Wissenschaftliche Dienst des Bundestages lässt auch Crawford viele Fragen offen: Wer soll die künstlichen Intelligenzen und ihre Entscheidungen untersuchen? Wer soll definieren, welche KI-Outputs erwünscht oder neutral sind? Welche Rolle soll der Staat dabei spielen? Und vor allem: Müsste das alles nicht längst passieren?
Forscher von OpenAI, einem industrienahen Non-Profit-Unternehmen, formulieren die Situation so: "Fortschrittliche KI entwickeln und sie erst später sicher machen, ist wie das Internet aufbauen und anschließend versuchen, es sicher zu machen." Das ist keine hypothetische Warnung: Als sich abzeichnete, wie groß und weltverändernd das Netz werden würde, war es schon zu spät, Sicherheit noch zu einem Grundpfeiler des Designs zu machen. Techniken wie verschlüsselte Datenübertragungen wurden erst nachträglich und unvollständig eingeführt, deshalb sind das Internet und seine Nutzer bis heute auf unzähligen Ebenen angreifbar und manipulierbar.