Mit einer Wahrscheinlichkeit von 99,7 Prozent ist die übliche Kopfbedeckung der britischen Queen eine Duschkappe. Das hat ein auf Bilderkennung trainiertes neuronales Netzwerk einst festgestellt, das dringend Nachhilfe in Kronenerkennung braucht. Kate Crawford illustriert auf der re:publica anhand solcher Beispiele die Schwächen heutiger Künstlicher Intelligenzen (KI). Aber eigentlich geht es ihr um die weniger lustigen Folgen dieser Schwächen.

"Know your terrorist score" heißt der Vortrag der Microsoft- und MIT-Forscherin. Doch seine Terroristentrefferquote kennt niemand im Publikum. Aber jeder dürfte verstanden haben, worauf Crawford hinaus will: KI, lernende Maschinen, brauchen eine Datengrundlage, die ethischen Regeln folgt. Andernfalls werden Maschinen uns in Schubladen einsortieren, in die wir weder gehören noch wollen.

Das System i2 EIA (Enterprise Insight Analysis) von IBM – übrigens einem der Hauptsponsoren der re:publica – zum Beispiel durchsucht haufenweise unstrukturierte Daten aus verschiedenen öffentlichen Quellen, um Terrorverdächtige unter Flüchtlingen zu erkennen. Das System erstellt einen Trefferwert wie für Kreditnehmer. Für Crawford ist es ein Musterbeispiel für die Ausweitung von Überwachung auf die am wenigsten Privilegierten der Gesellschaft. Sie hätten keine Chance zu erkennen, welche Daten über sie genutzt und wie sie verarbeitet werden. Was soll man tun, wenn man von einer Maschine als Risiko eingestuft wird, wie soll man sich dagegen wehren? Zwar fällt i2 EIA keine endgültige, unwiderrufliche Entscheidung, versichert IBM. Aber die Argumentation, man beschäftige schließlich keine Spione oder Agenten, sondern nur Ingenieure, kann allein kaum beruhigen.

Crawford sagt, an solchen Systemen könne man erkennen, wie fragwürdig die zugrunde liegenden Daten sind, welche Werte und Normen sie transportieren, ob beabsichtigt oder nicht. Googles Gesichtserkennung zum Beispiel hielt Schwarze mal für Gorillas. Die von Nikon hielt eine Asiatin für jemanden, der blinzelt, und schlug vor, lieber noch ein weiteres Foto zu machen, ohne den vermeintlichen Schönheitsfehler. Offensichtlich, sagt Crawford, seien beide Systeme überwiegend mit Fotos von Weißen beziehungsweise Nicht-Asiaten trainiert worden.

Wenn von solchen oder ähnlichen, selbstlernenden Systemen abhängt, ob man eine Krankenversicherung bekommt oder einen Kredit, oder ein Flugzeug besteigen darf, dann sollte die Datengrundlage diverser sein, sagt Crawford. Deshalb brauche es eine Ethik für Algorithmen und Big-Data-Anwendungen.

Die Zukunft ist schon da, sie ist nur nicht gleich verteilt

Sie befürchtet, dass insbesondere die ohnehin schon Unterprivilegierten am meisten unter Künstlichen Intelligenzen mit Bias zu leiden haben. In Anlehnung an William Gibsons Spruch "Die Zukunft ist schon da, sie ist nur nicht gleich verteilt" sagte sie: "Wir alle sind schon Datensubjekte, aber die Effekte sind nicht gleich verteilt".

Sie ist nicht die Erste und Einzige, die so etwas wie einen Algorithmus-TÜV fordert. Der Big-Data-Experte Viktor Mayer-Schönberger sprach schon vor drei Jahren davon, zuletzt auch Bundesjustizminister Heiko Maas.

Transparenz – die Möglichkeit, in die Technik hereinschauen, sie von außen kontrollieren zu können – sei aber nicht genug, sagt Crawford. Schließlich wüssten selbst die Entwickler neuronaler Netze nicht genau, warum ein System versagt oder nicht, warum ein Netzwerk eine Krone auch mal für eine Duschkappe hält. Der Einblick in solche Systeme sei immer eine Momentaufnahme, aber das helfe bei lernenden Systemen ja nicht, weil sie sich ständig verändern.

Deshalb fordert Crawford eine bessere Ausbildung der kommenden Ingenieure und Entwickler schon im Studium. Sie fordert die ausgewogene Besetzung von Firmenleitungen, von Laboren und Ethikräten. Und sie will erreichen, dass Künstliche Intelligenzen faire statt einseitige Entscheidungen treffen, dass sie nicht zum Machtmissbrauch verwendet werden können, und dass es für Betroffene immer eine Möglichkeit zur juristischen Gegenwehr gibt. Damit man nicht die Königin von England sein muss, um sich gegen eine KI wehren zu können.