Überwachungskameras am Flughafen Schönefeld bei Berlin © Marc Tirl/dpa

Im Dezember 2010 wurde ein Student im Regionalexpress von Kassel nach Frankfurt von zwei Bundespolizisten aufgefordert, seinen Ausweis vorzuzeigen. Er weigerte sich, da er annahm, allein wegen seiner schwarzen Haut angesprochen worden zu sein. Zwei Gerichtsverfahren später stand fest, dass er mit dieser Vermutung richtig lag – die Polizisten hatten bei ihrer "verdachtsunabhängigen Kontrolle" gezielt nach Menschen gesucht, die ihnen als Ausländer erschienen waren. Sie arbeiteten nach einem bestimmten Muster.

Die Polizisten sagten im Prozess aus, der Student sei ihnen aufgefallen, weil er dunkle Haut hatte, in einem voll besetzten Zug nicht saß, sondern durch den Gang ging, offensichtlich allein reiste und kein Gepäck besaß. Jedes einzelne dieser Merkmale ist harmlos, unbedeutend. Zusammen aber ergaben sie für die Polizisten das Muster "illegaler Einwanderer". Andere Fakten interessierten die Beamten nicht – nicht sein deutscher Ausweis, nicht sein fehlerfreies Deutsch, nicht sein Auftreten.

Algorithmen tun genau das Gleiche. Sie durchsuchen große Datenmengen, um darin Beziehungen zwischen einzelnen Merkmalen zu erkennen – Muster. Anschließend werden diese mit anderen, bereits bekannten Mustern verglichen. Filter für Spam-E-Mails funktionieren so, die Buchempfehlungen von Amazon, die Ergebnisse von Google und eben auch die Suche nach potenziellen Verbrechern wie beim Spionagesystem Prism der NSA.

Die Idee ist alt. In den siebziger Jahren wurde so nach Mitgliedern der RAF gefahndet, seitdem heißt das hierzulande Rasterfahndung. Damals wollten die Ermittler in Erfahrung bringen, ob jemand seine Stromrechnung bar und unter falschem Namen bezahlte – weil sie annahmen, dass sich ein Terrorist, der untergetaucht ist, so verhält. Also wurden die Kundendateien von Stromwerken beschlagnahmt, alle Barzahler herausgesucht und dann mit Melderegistern, Versicherungsunterlagen und anderen Datensätzen verglichen. Namen, die es im Melderegister und an anderen Stellen nicht gab, mussten falsch und die Einzahler damit potenzielle Terroristen sein. Einer wurde tatsächlich auf diese Art entdeckt.

Keine Unschuldsvermutung mehr

Was auf den ersten Blick logisch klingt, birgt zwei Gefahren. Zum einen macht diese Form der Ermittlung jeden zum Verdächtigen. Es gibt keine Unschuld mehr. Selbst berühmte Schauspieler wie der Bollywood-Star Shah Rukh Khan sind nicht davor gefeit, bei der Einreise in die USA allein aufgrund ihrer Hautfarbe stundenlang verhört zu werden.

Der amerikanische Geheimdienst NSA soll alle sechs Stunden so viele Daten speichern, wie in der Library of Congress gesammelt sind, der zweitgrößten Bibliothek der Welt. Das ist allein deswegen besorgniserregend, weil die NSA-Analysten niemandem sagen, wonach sie in diesen Daten eigentlich suchen.

Wer nichts zu verbergen hat, hat nichts zu befürchten? Nein, das ist eine Lüge. Denn weil die zugrunde liegenden Handlungen so alltäglich und die daraus gewobenen Muster so komplex sind, kann sich niemand dieser Rasterung entziehen. Es ist unmöglich, bewusst friedlich zu leben, um dem Staat und seiner Neugier aus dem Weg zu gehen. An sich harmlose Verhaltensweisen können genügen, um überwacht und verfolgt zu werden. Es reicht, ähnliche Dinge getan zu haben, wie ein Verbrecher. Stundenlange Verhöre sind dann noch eine vergleichsweise harmlose Folge.

Garbage in, garbage out

Zum anderen hängt alles davon ab, was die Programmierer des Algorithmus als Vergleichsmuster angenommen haben. Die RAF-Ermittler des Bundeskriminalamtes glaubten, Untergetauchte zahlten ihren Strom bar. Die Ermittler der später als NSU-Morde bekannt gewordenen Taten waren überzeugt, ihre Täter seien türkische Nationalisten, Schutzgelderpresser oder Psychopathen.

Auf der Suche nach ihnen filterten sie 20 Millionen Datensätze von Mobilfunkzellen, 13 Millionen Daten von Kredit- und EC-Karten, eine Million Daten von Autovermietungen, 300.000 Hotelübernachtungen. Insgesamt fielen so mehr als 30 Millionen Bundesbürger in ihr Suchraster und standen damit unter Mordverdacht.

Die Mörder fanden die Ermittler so nicht, das Suchmuster war falsch. Garbage in, Garbage out, heißt das in der Informatik – wer eine unsinnige Frage stellt, dem geben die Daten eine unsinnige Antwort.

Ethik der Algorithmen

Gleichzeitig wächst bei den Behörden das Vertrauen in diese Technik. Künftige Scanner an Flughäfen könnten nicht mehr versuchen, unter die Kleidung zu schauen, sondern nur noch Stimmhöhe, Herzfrequenz oder Atmung analysieren. Entsprechende Pläne gibt es bereits. Wer besonders aufgeregt ist, würde damit schon verdächtig. Oder alle, die besonders entspannt sind – je nachdem, was der Algorithmus gerade sucht.

Einige amerikanische Städte wie Santa Cruz testen Algorithmen, um Autodiebe und Einbrecher zu fangen, noch bevor die eine Tür aufhebeln. Als Basis dienen Bevölkerungs- und Kriminalstatistiken, eine Software sagt den Polizisten, wann sie wo auf potenzielle Täter warten sollen. Predictive Policing heißt das, Überwachung allein aufgrund eines vorhergesagten Verhaltens.

Doch je größer der Glauben an die Macht der Algorithmen, desto größer ist die Gefahr, dass unzählige Menschen völlig unschuldig und zugleich furchtbar verdächtig sind. Kritiker dieser Technik fordern daher längst eine Ethik der Algorithmen, denn kontrollieren lassen sich diese nur durch Transparenz. Die will derzeit aber niemand, weder Google, noch Amazon, noch die NSA. Was bedeutet, dass die Prämisse des demokratischen Strafrechtes nicht mehr gilt. Unschuldig bis zum Beweis der Schuld? Dieses Konzept kennen Algorithmen nicht.

Der Text erschien in einer leicht gekürzten Version in DIE ZEIT 26/2013.