Anfang 2016 wurde die selbstlernende
Software
AlphaGo weltberühmt, als sie den koreanischen Großmeister Lee Sedol im
Spiel Go schlug. Das Programm der Firma DeepMind hatte zunächst Millionen von Partien zwischen Menschen analysiert und ihre Fähigkeiten anschließend im Spiel gegen sich selbst verfeinert. Seither
hat DeepMind seine Erfindung weiterentwickelt.
AlphaGo Zero heißt die
aktuelle Version, für
"null menschliches Wissen". Sie ist praktisch unschlagbar.
Anders als die erste Version bekam AlphaGo Zero nur die Regeln des Spiels beigebracht, sonst nichts. Der Rest war sehr schnelles Learning by Doing. Oder, wie dieser Bereich des maschinellen Lernens im Fachjargon heißt: Reinforcement Learning. Nach 72 Stunden Training mit sich selbst besiegte das neue System das Programm von 2016 in hundert von hundert Partien, schreiben die Entwickler im Fachmagazin Nature.
DeepMind, ein Tochterunternehmen des Alphabet-Konzerns, zu dem
auch Google gehört, spricht von "übermenschlicher Performance". Die soll der
Go-Algorithmus in Zukunft auch jenseits
von Spielen liefern. Mit geringfügigen
Modifikationen soll
er unter anderem helfen, neue medizinische Wirkstoffe zu finden, wie
CEO Demis
Hassabis im Gespräch mit Quartz
sagte. Den Code will er allerdings unter Verschluss halten.
AlphaGo Zero soll
eine Blackbox bleiben, wie es viele andere Systeme mit künstlicher Intelligenz (KI) auch sind. Sogenannte
Deep-Learning-Netzwerke, die den derzeitigen KI-Boom ausgelöst haben, sind auf einer bestimmten Ebene selbst für ihre Schöpfer undurchschaubar. Manche
Wissenschaftler,
Politiker und Aktivisten halten das für hochproblematisch. Nicht, weil sie Angst hätten vor einer Machtübernahme der Maschinen und dem Ende der Menschheit. Sondern weil sie automatisierte Entscheidungen und Fehler befürchten, die im Nachhinein niemand erklären und künftig verhindern kann.
Keine Blackbox-Algorithmen in öffentlichen Institutionen
Einen Tag vor DeepMinds offizieller Vorstellung von AlphaGo Zero hatte die Forscherin Kate Crawford die "zehn wichtigsten Empfehlungen des Jahres zum Thema künstliche Intelligenz" veröffentlicht. Crawford ist Mitgründerin des AI Now Institute, das den gesellschaftlichen Einfluss von KI auf Arbeit, Gesundheit, soziale Ungleichheit und Ethik untersucht. Ihre erste Empfehlung lautet: Öffentliche Einrichtungen von zentraler Bedeutung – wie jene, die für Justiz, Gesundheitsversorgung, Sozialhilfe und Bildung zuständig sind – sollten keine Blackbox-Algorithmen nutzen.
Zu
viele derartige Programme stellen sich laut Crawford im Nachhinein
als diskriminierend oder fehlerhaft heraus, mit potenziell gravierenden
Folgen für die Betroffenen: Häftlinge,
deren Rückfälligkeitsrisiko von einem einseitig trainierten Algorithmus zu ihrem Nachteil berechnet wird, weil sie Afroamerikaner sind, oder Asthma-Patienten mit Lungenentzündung,
die nach Hause geschickt werden sollten, weil eine Software die Daten einer Uni-Klinik auf unerwartete Weise korreliert hatte.
Sie
wünscht sich deshalb vor jeder Veröffentlichung von KI-Systemen
"rigorose Tests, um sicherzugehen, dass sie nicht einseitig oder
fehlerhaft sind", weil irgendetwas mit den Trainingsdaten, den
Algorithmen oder anderen Elementen nicht stimmt. Vor und nach der
Zulassung neuer Medikamente gebe es schließlich auch vorgeschriebene
Tests. Dementsprechend sollten Unternehmen ihre künstlichen Intelligenzen nach der
Veröffentlichung beobachten, und
zwar mit größtmöglicher Transparenz und unter Einbeziehung jener
betroffenen Gruppen, die im jeweiligen Anwendungsbereich häufig
benachteiligt werden. Außerdem
müssten laut Crawford sowohl neu entstehende, als auch bereits
verwendete Trainingsdaten für selbstlernende Systeme besser
dokumentiert und nachträglich von Experten auf Einseitigkeit
untersucht werden.
Das klingt nach einem Algorithmus-TÜV, wie ihn unter anderem Bundesjustizminister Heiko Maas seit Jahren fordert, nur detaillierter. Aber so wie Maas und zuletzt der Wissenschaftliche Dienst des Bundestages lässt auch Crawford viele Fragen offen: Wer soll die künstlichen Intelligenzen und ihre Entscheidungen untersuchen? Wer soll definieren, welche KI-Outputs erwünscht oder neutral sind? Welche Rolle soll der Staat dabei spielen? Und vor allem: Müsste das alles nicht längst passieren?
Forscher von OpenAI, einem industrienahen Non-Profit-Unternehmen, formulieren die Situation so: "Fortschrittliche KI entwickeln und sie erst später sicher machen, ist wie das Internet aufbauen und anschließend versuchen, es sicher zu machen." Das ist keine hypothetische Warnung: Als sich abzeichnete, wie groß und weltverändernd das Netz werden würde, war es schon zu spät, Sicherheit noch zu einem Grundpfeiler des Designs zu machen. Techniken wie verschlüsselte Datenübertragungen wurden erst nachträglich und unvollständig eingeführt, deshalb sind das Internet und seine Nutzer bis heute auf unzähligen Ebenen angreifbar und manipulierbar.
Kommentare
Die Annahme, man könnte so etwas national regeln ist aussichtslos.
Die Annahme, man könnte es international verbindlich regeln ist auch aussichtslos.
Schon 1983 hatte WarGames gezeigt, was passieren kann, wenn lernfähige Computersysteme sich selbständig machen. Der WOPR konnte dann nur noch zufällig gestoppt werden.
"Heutzutage", sagt Irving, "gehören die meisten eingesetzten Systeme zur ersten Kategorie. Die haben zwar auch ihre Probleme, darunter mögliche Einseitigkeit und damit Benachteiligung bestimmter Gruppen, aber sie werden wahrscheinlich nicht außer Kontrolle geraten."
jetzt wird es auch noch politisch und aktuell alternativ.
Aber Skynet wird keinen Unterschied machen.
Skynet bezog seine Intelligenz dadurch, dass es alle Rechner der Welt über einen Virus zusammenschaltete und so eine unglaubliche Intelligenz erlangte...
Wie auch immer. Genau hier sehe ich ein Problem für die Zukunft. Wenn wir alles, was irgendwie mit Strom funktioniert ins Internet (Internet of Things IoT) hängen, dann ist das ein unvorstellbarer Angriffspunkt.
Stellen Sie sich mal vor, wir schalten dann um 10 Uhr morgens in Frankfurt alle Geräte auf volle Leistung: Den Mixer, die Waschmaschine auf Aufheizen ohne Wasser, die Spülmaschine und den Herd drehen wir auch auf 250 Grad. Was ist dann wohl um spätestens 12 Uhr in Frankfurt los.
Oder: Wir programmieren die Teile so, dass sie sich alle 10 Sekunden auf Vollast stellen und danach abschalten und das so lange, bis das Stromnetz wieder da ist. Sobald das Netz wieder eine Uhrzeit liefert, machen wir am folgenden Tag um 12 Uhr Mittags wieder dasselbe.
Und da es für die ganzen tollen IoT Geräte keine Updates gibt, haben wir auch ein paar Jahre Zeit, bis wir die ganzen Lücken kennen und dann legen wir mit unserem Plan los...
Das kann man nur verhindern, in dem man diese Geräte NICHT ans Internet anschließt. Ergibt ja auch sowieso praktisch keinen Sinn.
Was wenn sie lernen "besser" zu sein als wir?
Wir werden vielleicht ganz passable Haustiere abgeben?
Irgendwann wird sich ein Ethikrat mit der Frage beschäftigen, ob ein Rechner ausgeschaltet werden darf, oder eher doch nicht. Weil wenn die Algorithmen so weit ausgebaut werden, dass sie wirklich eigene Gedanken und eigene Gefühle haben, dann entscheiden wir über das Leben eines denkenden Wesens.
Gruselig? Ja, irgendwie schon.
"Weil wenn die Algorithmen so weit ausgebaut werden, dass sie wirklich eigene Gedanken und eigene Gefühle haben, dann entscheiden wir über das Leben eines denkenden Wesens."
Das tun wir doch schon längst - bei den Tieren.