Drei Begriffe aus der Informatik sind Gegenstand der Politik geworden: Algorithmen, künstliche Intelligenz (KI) und Roboter. Was bezeichnen sie?

Ein Algorithmus ist eine formal beschriebene Folge von Anweisungen, wie ein Problem zu lösen sei, ob mit oder ohne Computer. Wir lernen zum Beispiel in der Schule, wie sich eine Zahl durch eine andere dividieren lässt: Das ist ein Algorithmus. Wird ein Algorithmus in einer Programmiersprache ausgedrückt, ist er Software. Sie steuert Computer, etwa die Rechner von Facebook. Roboter wiederum bestehen aus Computern, Sensoren sowie Werkzeugen, die auf die Umwelt einwirken – Greifern zum Beispiel, Schweißgeräten, Rädern oder Schusswaffen.

KI hingegen ist weniger gut definiert. Recht besehen besteht KI aus der jeweils avanciertesten Software. Heute werden Programme, die lernen können, zur KI gezählt – die Spracherkennungssoftware Siri zum Beispiel.

Mit alledem muss sich die Politik befassen, weil Software oft über das Wohl und Wehe der Menschen entscheidet. Zurzeit kursiert deshalb die Forderung nach einem Algorithmen-TÜV, der Fairness oder Sozialverträglichkeit von Programmen prüft. Klingt gut. Aber braucht wirklich jede Software eine TÜV-Plakette? Besser wäre es, die Politik würde erst einmal Gebiete definieren, auf deren Regulierung sie sich konzentrieren will. Die Bearbeitung von Anträgen in Banken und Versicherungen zum Beispiel. Oder Roboter in der Pflege.

Falsch wäre es, nur auf die Software zu blicken oder auf die zugrunde liegenden Algorithmen. Denn meistens sind nicht die Algorithmen der interessante Punkt, sondern die Daten. Das eigentlich Neue ist Big Data: "Die Übersetzungsprogramme von Google oder Facebook sind vor allem wegen der gigantischen Datenmengen leistungsfähig", sagt Stefan Ullrich, in der Gesellschaft für Informatik für den Bereich "Informatik und Ethik" zuständig. Viele KI-Systeme lernen anhand von umfangreichen Datensätzen, Benutzer zu klassifizieren – zuweilen auch nach Kriterien, "die unschön sind oder gar verboten", wie Ullrich sagt. Etwa wenn Leuten mit Namen wie Ahmed ungünstigere Verträge angeboten werden.

Damit das überprüft werden kann, muss KI transparent sein. Daher werden weltweit zwei Anforderungen diskutiert: Der Mensch muss erstens erfahren, wenn eine Maschine über ihn entschieden hat – und zweitens, warum so und nicht anders entschieden wurde. Das ist technisch nicht trivial und Gegenstand internationaler Fachtagungen.

Auch das Europäische Parlament will Transparenz von Robotik und KI. Speziell für Roboter verlangt es eine Registrierungspflicht und fordert die EU-Kommission auf, zu prüfen, ob dafür eine "EU-Agentur für Robotik und künstliche Intelligenz" eingerichtet werden müsse. Außerdem schlägt das Parlament einen "Verhaltenskodex für Roboteringenieure" vor.

Ein derartiger Kodex, wie er in Deutschland auch als Regelwerk für die gesamte Informatikerzunft diskutiert wird, könnte mehr sein als eine Sammlung schöner Worte. Auf ihn könnten sich Whistleblower vor Gericht berufen, außerdem ließe sich die Vergabe öffentlicher Aufträge an ein Zertifikat knüpfen, dass Unternehmen ihre Angestellten anhand eines solchen Kodex schulen.