Predictive Policing – der Polizeiarbeit auf Basis von Verbrechensprognosen – klingt stets nach Überwachungsstaat und dem Ende der Unschuldsvermutung. Das liegt am Minority Report, der Kurzgeschichte von Philip K. Dick aus dem Jahr 1956, und ihrer filmischen Umsetzung von Steven Spielberg von 2002, die quasi Teil des kollektiven dystopischen Gedächtnisses geworden ist.

Dass eines der bekanntesten Predictive-Policing-Programme ausgerechnet Precobs heißt und damit zwangsläufig Assoziationen zu den "Precogs" aus Minority Report weckt – drei Hellsehern, die künftige Mörder erkennen – trägt vermutlich auch nicht gerade positiv zur gesellschaftlichen Akzeptanz der Technik bei.

Nun kommt am Donnerstag der Dokumentarfilm Pre-Crime von Monika Hielscher und Matthias Heeder in die Kinos, und auch er versucht gar nicht erst, ein sachliches Bild vom Thema zu zeichnen. Zwischen der Optik aus Computerspielen wie Watch Dogs (dessen Macher im Film zu Wort kommen) und Soundeffekten aus der Science-Fiction-Mottenkiste wird kaum kenntlich gemacht, welche Szenen tatsächlichen Predictive-Policing-Anwendungen oder Überwachungskameras entnommen sind und was nur zur möglichst düsteren Illustration nachgestellt wurde.

Dabei haben Hielscher und Heeder ein wichtiges Anliegen. Predictive Policing wird mittlerweile in mindestens der Hälfte der deutschen Bundesländer untersucht, getestet oder schon eingesetzt, allerdings vorrangig im Kampf gegen Wohnungseinbrecher und ohne die Verwertung personenbezogener Daten. Ein Beispiel aus Bayern wird im Film auch erläutert.

Nicht erwähnt wird aber, dass die Ergebnisse der bisherigen Tests und Einsätze in Deutschland kaum zur Dramatisierung taugen. Im kürzlich veröffentlichten Evaluierungsbericht über ein Pilotprojekt in Baden-Württemberg etwa steht, "dass kriminalitätsmindernde Effekte von Predictive Policing (...) wahrscheinlich nur in einem moderaten Bereich liegen und allein durch dieses Instrument die Fallzahlen nicht deutlich reduziert werden können". Nur etwa jeder zweite von 700 befragten Polizisten hält es für ein Erfolg versprechendes Modell, insbesondere außerhalb großer Städte wird der Einsatz von Predictive Policing für wenig sinnvoll erachtet.

Das Minority-Report-Szenario, nämlich allein auf der Basis statistischer Analysen künftige Kriminelle vorherzusagen, wäre hierzulande rechtlich gar nicht möglich. Der Bayerische Landesbeauftragte für den Datenschutz Thomas Petri, der das in Bayern eingesetzte Modell für unbedenklich erklärt hat, sagt: "Das kollidiert mit dem Grundsatz der Unschuldsvermutung." Außerdem seien einem derartigen Profiling "auch EU-rechtlich enge Grenzen gesetzt. Artikel 11 der EU-Richtlinie über den Datenschutz in der Strafjustiz untersagt jedenfalls grundsätzlich die automatisierte Einzelfallentscheidung und lässt Ausnahmen nur in engen Grenzen zu."

Solcherlei Differenzierung aber liegt den beiden Regisseuren eher fern. Lieber schauen sie in andere Länder, in denen die Strafverfolger weiter gehen dürfen oder wollen als in Deutschland. Und dann unterlassen sie es, die Unterschiede zu verdeutlichen.

Die falschen Freunde können zum Problem werden

In Chicago etwa wird anhand polizeilicher Daten eine sogenannte Strategic Subject List erstellt – eine Liste von "Personen, die dem höchsten Risiko ausgesetzt sind, sich in einem gewaltbereiten Umfeld zu bewegen". Gemeint sind Menschen, die bisher nur wegen kleinerer Delikte festgenommen wurden, dies aber zusammen mit Bekannten, die schon mal als Täter oder auch Opfer mit Gewaltverbrechen zu tun hatten. Die Polizei besucht die Menschen auf dieser heat list und erklärt ihnen, dass sie unter Beobachtung stehen. Das ist ihre Art der Gewaltprävention. Im Film wird der junge Schwarze Robert McDaniel gezeigt, der beim Kiffen und Glücksspiel erwischt wurde und nun glaubt, offiziell zu den 400 gefährlichsten Menschen in Chicago zu zählen.

In der englischen Grafschaft Kent kommt ein US-System namens Predpol zum Einsatz. Seit drei Jahren definiert es täglich Risikogebiete, in denen dann verstärkt Streifen gefahren werden. Was heute zur Abschreckung von Einbrechern dient, soll künftig auch eingesetzt werden können gegen organisiertes Verbrechen, Menschenhandel, Sexualverbrechen sowie zur Grenzsicherung. Wie, bleibt allerdings offen. Auch dass eine erste Evaluierung ergab, dass die Polizei in Kent aufgrund von Personal- und Zeitmangel kaum dazu kam, Predpol regelmäßig zu nutzen und dass der Einsatz der Software nur etwas brächte, wenn es auch mehr Polizisten gäbe, erwähnen die Filmemacher mit keinem Wort.

Warum gibt es keinen Algorithmus, der Wirtschaftskriminelle findet?

Im kalifornischen Fresno heißt die Predictive-Policing-Software schlicht Beware – englisch für "Nimm dich in acht". Ein Anwalt behauptet im Film, die Software hätte in einer anderen Stadt mal eine Frau als potenziell gefährlich eingestuft, weil sie auf Twitter etwas von rage schrieb, englisch für "Wut". Dabei habe sie nur das gleichnamige Kartenspiel gemeint.

Doch ein Beleg für die Behauptung des Anwalts fehlt. Und er ist nur einer von mehreren eher dubiosen, stets in dunkler Umgebung präsentierten Kronzeugen von Hielscher und Heeder. Auch dadurch wirkt der Film insgesamt einseitig, der Unterschied zwischen trockener Statistik und Dystopie geht unter in Zuspitzungen, Raum für rechtliche Voraussetzungen und Grenzen bleibt keiner.

Immerhin hat Pre-Crime ein paar starke Momente. Etwa jene, in denen ein französischer Forscher erklärt, aus welcher Wissenschaftsdisziplin der Algorithmus hinter Predpol eigentlich stammt: aus der Seismologie. Erdbeben würden Nachbeben auslösen, ebenso würden Verbrechen an einem Ort oder gegen eine Person weitere Verbrechen in der Umgebung zur Folge haben.

Dann umreißt der Franzose ein zentrales Problem vieler solcher Algorithmen, nämlich die Datenbasis. Predpol sei gefüttert worden mit Daten zu Verbrechen und "antisozialem Verhalten" aus mehreren Jahren – aber das seien naturgemäß alles Vorfälle gewesen, die der Polizei gemeldet worden waren. "Agiert die Polizei also auf Grundlage dieser Daten, agiert sie nur für die Leute, die sich bei der Polizei melden. Und das verzerrt diesen Ansatz vehement. Man denkt, man hätte die Sicherheit erhöht, weil die Daten das auszusagen scheinen, wohingegen ein Großteil der Bevölkerung, der nicht in den Daten vorkommt, immer noch unter Sicherheitsdefiziten leidet."

Der Film listet nach und nach eine ganze Reihe von weiteren Problemen auf: Polizisten werden bei der Dateneingabe nicht kontrolliert, Algorithmen nicht offengelegt. Manche Programme beruhen auf einer einseitigen Datenbasis, die dazu führt, dass Nichtweiße benachteiligt werden. Wer einmal auf einer heat list der Polizei landet, kommt nach Aussagen einer Anwältin nicht mehr herunter. Betroffen sind generell fast nur Geringverdiener und Arbeitslose. Doch die Hersteller und Strafverfolger werden mit diesen Vorwürfen nicht konfrontiert. Und auch die im Film explizit gestellte, hochspannende Frage "Gibt es eigentlich einen Algorithmus, der auf Wirtschaftsverbrechen zielt?" bleibt wie so vieles – leider unbeantwortet.