"Sammeln Sie Payback-Punkte?" Kaum einer, der die Frage nicht kennt. "Bitte nennen Sie noch Ihre Postleitzahl." Wir antworten arglos, und mit der Eingabe der fünfstelligen Nummer in die Computerkasse schließt die Kassiererin die kurze Unterhaltung ab. Inzwischen hat sich herumgesprochen, dass unsere Einkäufe Handelsunternehmen dabei helfen, uns mit weiteren Angeboten zu locken. Doch es geschieht noch mehr. Die kombinierte Analyse von Einkaufsverhalten und geografischer Information hilft Supermarktketten bei der Entscheidung, wo sie das nächste Einkaufszentrum errichten sollen, wo sozusagen der nächste vertriebliche Einsatz geplant ist, um Umsatz und Profit zu steigern.

Wie grenzwertig ist es, wenn eine deutsche Polizeibehörde ähnlich vorgeht? Denn derzeit erregt Predictive Policing – "vorhersagende Polizeiarbeit" – die Gemüter. "Algorithmische Prädiktion funktioniert nicht", winkte noch vor drei Jahren ein deutscher Risikokapitalinvestor kurzerhand ab. Tatsächlich ist der Begriff der "Prädiktion" ähnlich unscharf wie "Big Data" – technisch kann sich dahinter alles Mögliche verbergen, von intelligenter Maschine bis hin zu maximal verkorksten, wissenschaftlich unhaltbaren "Vorhersage"-Konzepten. Ist Letzteres der Fall, hätte der Investor recht, aber trifft das auch auf Predictive Policing zu? Tatsächlich ist der Begriff unglücklich gewählt, denn es geht weniger um die Vorhersage von Straftaten als vielmehr um eine Hotspot-Analyse, also die geografische Auswertung, wo die kriminelle "Kundschaft" künftig wahrscheinlich vermehrt anzutreffen sein wird, weil sich in derselben Gegend auch mehr "Beute" als anderswo befindet.

Aus technischer Sicht macht das Sinn. Denn konkrete Straftaten lassen sich so wenig präzise vorhersagen wie Börsenkurse, besonders dann nicht, wenn sich eine neue Form der Kriminalität entwickelt, die in der jüngeren Geschichte – seit man Daten aufzeichnet – noch nie aufgetreten ist und deshalb einen strukturellen Bruch sowohl im sozialen Gefüge selbst als auch in seiner bis dahin datenmäßigen Abbildung bedeutet. Ein schreckliches Beispiel für einen solchen Strukturbruch ist eine neue Erscheinungsform von Kriminalität im Nahen und Mittleren Osten, die in der brutalen Verfolgung, ja Enthauptung andersdenkender Menschen gipfelt. Trotz aller Datensammelwut und -analysefähigkeit schien westlichen Geheimdiensten entgangen zu sein, mit welcher Geschwindigkeit sich diese neue Form des Terrorismus heranbildete. Das ist nicht verwunderlich, wenn man die mathematischen Konzepte kennt, auf denen "Vorhersagen" gewöhnlich beruhen. Sie arbeiten mit statistischen Korrelationen und Wahrscheinlichkeiten, die von historischen Daten abgeleitet werden. Doch Muster, die in der Vergangenheit nicht auftreten, haben wenig Chance, als künftige Erscheinung prädiziert zu werden. Die Art und Weise, wie Datenanalyse und -prognose heute allgemein betrieben werden, führt deshalb maximal zur Erkennung von Abweichlern, etwa zur Identifizierung von Bürgern, die sich stärker als andere politisch engagieren. Doch der einschränkende Unterton ist bewusst gewählt, denn tatsächlich wäre technisch auch heute schon viel mehr möglich.

Dass die Münchner Polizei als eine der ersten deutschen Behörden einen Predictive-Policing-Algorithmus zur Einbruchsbekämpfung in Einsatz nimmt, verwundert nicht, wenn man weiß, dass das Bayerische Landeskriminalamt den Wunsch nach einer Hotspot-Analyse schon seit fast 15 Jahren hegt. Schon länger erhoffte man sich die maschinelle Unterstützung einer Handvoll Analysten, die in München händisch die Berichte über Einbruchsdelikte zusammenführten, die von den verschiedenen Polizeidienststellen Bayerns im regelmäßigen Turnus eingereicht wurden. Denn bis vor wenigen Jahren unterhielt jedes bayerische Polizeirevier seine eigene, lokale Datenbank und war mit denen der Kollegen nicht vernetzt. Speziell die Erkennung von Einbruchsserien war eine schwierige Herausforderung, wenn Einbrecherbanden "Landkreis-Hopping" betrieben. Was in Freisings polizeilichem Datensilo gelagert war, war von Erding oder Ebersberg aus nicht ohne Weiteres einsehbar; Einbrüche in verschiedenen Landkreisen standen wie zusammenhanglos nebeneinander. Hinzu kamen sprachliche Hindernisse, wenn es um den Modus Operandi ging: Was ein Polizist als "Brecheisen" bezeichnete, war für seinen Kollegen ein "Geißfuß" – gemeint war trotzdem dasselbe Einbruchswerkzeug, dieselbe Vorgehensweise. Erst wenn die Berichte über die scheinbar unabhängigen Vorfälle bei der zentralen Stelle in München zusammenkamen, analysiert und sortiert wurden, fielen Einbruchsserien auf, wenn ein Analyst feststellte: Das habe ich doch gerade schon einmal in anderem Zusammenhang gesehen.

Predictive Policing soll die Arbeit des Analysten unterstützen, weil Einbruchsserien, basierend auf ihren spezifischen Mustern, schneller erkannt werden. Ein sinnvolles Vorgehen ist, das Beuteschema der Straftäter zu analysieren. Sind die Opfer bevorzugt alleinstehende Rentner, oder üben sie einen bestimmten Beruf, etwa den des Juweliers, aus? Wohnen sie in Reihenhäusern, ländlichen Villen oder urbanen Gebieten? Hat man ein archetypisches Opfer definiert, kommt es zu einem Abgleich mit den aggregierten statistischen Daten eines geografischen Informationssystems, das die Frage beantwortet, wo potenzielle Opfer besonders häufig anzutreffen sind. Das System markiert die geografische Region, die am stärksten gefährdet ist – eben den Hotspot. Die Polizei wird daraufhin ihre Einsätze so planen, dass die Polizeipräsenz in den betroffenen Gebieten erhöht wird. Mehr polizeiliche Anwesenheit soll Einbrecher stören und Straftaten verhindern oder erlauben, schneller am Tatort zu sein, falls ein Einbruch in der betroffenen Gegend verübt wird. Damit erhöht sich gleichzeitig die Wahrscheinlichkeit, Täter in flagranti zu stellen.

Predictive Policing, ein datenschutzrechtlicher Grenzfall?

Predictive Policing, ein datenschutzrechtlicher Grenzfall oder nicht? Inzwischen regt sich unterschiedslos bei allem Widerstand, was auf algorithmisch gestützter Arbeit mit Daten beruht. Das ist gut so, weil es zeigt: Der Bürger ist sensibel geworden. Matthias Monroy, wissenschaftlicher Mitarbeiter des Linke-Abgeordneten Andrej Hunko, sagt in diesem Zusammenhang: "Computergestützte Strafverfolgung verbietet sich, wenn sie Vorhersagen treffen will." Dem ist gänzlich zuzustimmen, allerdings richten sich die Bedenken gegen anderes als die hier diskutierte Hotspot-Analyse. Hier geht es eben gerade nicht um Strafverfolgung, sondern um Prävention – die zudem nicht auf persönlichen, sondern auf allgemeinen statistischen und aggregierten Daten beruht. Die Hotspot-Analyse verschafft einen Überblick und unterstützt die Beamten bei einer effektiveren Einsatzplanung, mehr nicht. Und nach allen Erfahrungen bei der Einhaltung datenschutzrechtlicher Bestimmungen kann man sich auf eine deutsche Polizeibehörde noch eher verlassen als auf nichtstaatliche, kommerzielle Unternehmen mit Sitz im Ausland, die Daten ihrer Nutzer auf der Basis fragwürdiger Nutzungsbedingungen und Einwilligungserklärungen erheben, analysieren und unkontrolliert weiterverbreiten.

Natürlich gilt es, trotzdem wachsam zu bleiben. "Zum einen wird passieren, was sich schon in den USA beobachten lässt: Das Racial Profiling – also Kontrollieren von Personen aufgrund ihrer ethnischen Zugehörigkeit – beziehungsweise von unterprivilegierten Personen, wird verstärkt." Die Sorge richtet sich auf das mögliche künftige Verhalten der Polizei, eines von mehreren denkbaren Szenarien, wie es mit der polizeilichen Überwachung nach Predictive Policing weitergehen kann. Der Vergleich, den Matthias Monroy mit der polizeilichen Vorgehensweise in den USA zieht, hinkt dennoch, und deshalb darf man zweifeln, ob das Szenario mit der von ihm postulierten Bestimmtheit tatsächlich eintreten wird. Denn einerseits hat Racial Profiling mit algorithmischer Hotspot-Analyse nichts tun, sondern beschreibt vielmehr das Sozialverhalten eines Polizisten, der aufgrund seines Eindrucks von einer Person entscheidet, ob sie verdächtig ist oder nicht. Andererseits sind die kulturellen Unterschiede zwischen den USA und Europa sehr viel größer als gedacht und besonders eklatant bei der Frage nach Grundrechtsschutz und Privatsphäre. Der Schutz persönlicher Daten ist in den USA so schwach ausgeprägt, dass es viele europäische Predictive-Analytics-Unternehmen in die USA zieht, weil dort gesetzliche Einschränkungen quasi nicht bestehen. Für einen amerikanischen Juristen hört das Recht auf Privatheit außerhalb der eigenen vier Wände auf. Gespür für die deutsche Position hat man kaum. Fairerweise muss man zugeben, dass auch im umgekehrten Fall Verständnislosigkeit für eine so lockere Behandlung von Persönlichkeitsrechten herrscht.

Tatsächlich wäre eine algorithmische Verbrechensbekämpfung dort, wo sie strafverfolgenden Charakter annimmt, zu "prophylaktischer Ermittlung" oder zur allgemeinen Verdächtigung ganzer Personenkreise – ähnlich der Rasterfahndung – führt, hochproblematisch und rechtsstaatlich nicht vertretbar. Aber die technische Entwicklung schreitet rasch voran, und schon sind andere Szenarien denkbar: Was, wenn eine intelligente algorithmische Kontrollstrategie typische Verhaltensprofile nutzte, um mit einem Verfahren der evolutionären Spielstrategie zu berechnen, wie man eine Bande von Einbrechern oder Randalierern so gezielt durch einen Hotspot treibt, dass sie der Polizei unweigerlich in die Hände fallen muss? Sciencefiction, sagen Sie. Nein, schon heute ist das technisch möglich, etwa auf Basis multi-agentenbasierter Crowd Panic Models. Noch setzt es niemand um, besonders nicht diejenigen, die über unsere Daten und die Schlüsseltechnologien verfügen, um Kontrollstrategien zu realisieren: die kommerziellen Unternehmen, deren Service wir jeden Tag so sorglos nutzen. Wachsamkeit ist das Gebot der Stunde – und die Debatte darüber, wer mit welchen Algorithmen bis zu welcher nicht mehr übertretbaren Grenze unsere Zukunft bewirken darf.