Das Strafvollzugssystem der USA hat skandalös versagt. Das  ist mittlerweile selbst im konservativen Lager der USA unstrittig. Seit den siebziger Jahren ist die Zahl der Inhaftierten um 700 Prozent gestiegen, 25 Prozent aller Häftlinge der Welt sitzen in US-amerikanischen Gefängnissen. Einen nennenswerten Einfluss auf die Anzahl der Verbrechen hat der Einsperrwahn nicht gehabt.

So sucht man in den USA nach Lösungen, um die überfüllten Gefängnisse und mit ihnen die Staatskassen zu entlasten. Eine gute Lösung schien die Empfehlung der Bürgerrechtsvereinigung ACLU (American Civil Liberties Union) zu sein. Sie hatte einem Bericht zur Strafrechtsreform 2011 vorgeschlagen, durch kluge Datenanalyse zu kalkulieren, wie groß das Risiko von Straftätern sei, rückfällig zu werden und somit eine langfristige Gefahr für die Gesellschaft.

Es war die Hoffnung von ACLU, dass so harmlose Personen aus dem Strafvollzug herausgehalten werden könnten, gezielte Prävention möglich sei und man sich dann auf die wirklichen Probleme konzentrieren könnte.

Justizminister Eric Holder ist da skeptisch. Doch in der Mehrheit der US-Staaten werden mittlerweile sogenannte Risiko-Einschätzungsalgorithmen eingesetzt. Sie sollen die Wahrscheinlichkeit errechnen, mit der ein Straftäter erneut straffällig wird. Sie werden angewandt, wenn über Bewährung entschieden werden muss, wenn es darum geht, ob Untersuchungshaft notwendig ist oder wie lang die  Haftstrafe ausfällt.

Prognosen nur wenig präziser als ein Münzwurf

Allerdings stellt sich jetzt heraus, dass diese Methode lediglich die Probleme reproduziert, die das System ohnehin hat. Das größte ist die Diskriminierung der Afroamerikaner.

In der vergangenen Woche veröffentlichte die New Yorker Stiftung für investigativen Journalismus Pro Publica eine Recherche über die Objektivität der Algorithmen, die die Rückfallgefahr von Straftätern prognostizieren. Das Ergebnis war verheerend.

Die Prognosen waren "nur wenig präziser als ein Münzwurf", schreibt  Autorin Julia Angwin. In 61 Prozent aller Fälle vermochten sie, zukünftige Straftäter akkurat zu identifizieren. Bei Gewaltverbrechen waren es lediglich 20 Prozent, der Algorithmus lag hier zu 80 Prozent falsch.

Im Ergebnis wurde Schwarzen öfter fälschlicherweise ein hohes Risiko zugeordnet, Weißen dagegen öfter fälschlich ein niedriges: Afroamerikanischen Straftätern wurde zu 77 Prozent mehr zugetraut, eine zukünftige Gewalttat zu begehen, als weißen Straftätern. Ihr Risiko, eine Straftat anderer Kategorien zu begehen, lag bei 45 Prozent. Auf der anderen Seite wurden 23 Prozent der weißen Straftäter, die als riskant eingestuft wurden, nicht rückfällig, unter Afroamerikanern waren es 44,9 Prozent. Weiße Straftäter, die für unbedenklich gehalten wurden, wurden zu 47,7 Prozent rückfällig, schwarze zu 28 Prozent.

"Algorithmen könnten sehr nützlich sein"

Diese Recherche beeinflusst nun die Debatte über die Objektivität von Algorithmen, die in den USA ohnehin geführt wird. Facebook musste sich jüngst den Vorwurf konservativer Politiker gefallen lassen, bei der Auswahl favorisierter Nachrichten parteiisch zu sein. Der linksliberale Mark Zuckerberg konnte diesen Verdacht nicht wirklich überzeugend entkräften.

Pro Publicas Theorie über den Rassismus der Algorithmen gründet in deren Machart. Die Software schreibt jedem einzelnen Straftäter einen Risikoquotienten zu. Dieser wird aufgrund einer Befragung errechnet, der jeder Delinquent bei seiner Aufnahme unterzogen wird. Die Antworten werden mit Datenbanken über in der Vergangenheit verurteilte Straftäter  abgeglichen.

All das könnte theoretisch dazu beitragen, die Gefängnisse ethnisch unvoreingenommene zu entlasten und somit das amerikanische Strafrecht gerechter zu machen. "Wenn man die Algorithmen richtig baut, können sie sehr nützlich sein", sagt Zeynep Tufekci, Expertin für die sozialen Folgen von Technologieanwendung und für Fragen der sozialen Gerechtigkeit an der Universität von North Carolina.

Allerdings hat Tufekci nicht den Eindruck, dass beim Bau dieser Algorithmen die gegebene Sorgfalt angewandt wurde. "Es ist schon bemerkenswert, dass erst die Journalisten von Pro Publica diese extremen Ungenauigkeiten gefunden haben", sagt sie. Auf die Idee, eine Blindprobe zu nehmen, wie es Pro Publica getan hat, hätten die Macher der Software selbst lange vor der Implementierung kommen müssen. "Ich setze ja auch kein neues Flugzeug im Linienverkehr ein, bevor ich einen Testflug gemacht habe."

"Ein wenig wie Astrologie"

In den USA gibt es mittlerweile rund 60 Anbieter von vergleichbaren Risiko-Bewertungsalgorithmen, einige davon sind staatlich, einige privat. Die US-Journalisten haben sich den größten privaten Anbieter, die Firma Northpointe, herausgesucht. Northpointe weigerte sich jedoch, preiszugeben, wie der Algorithmus konstruiert wurde. Von dem, was Tufekci über den Algorithmus weiß, hat sie den Eindruck, er sei "ein wenig wie Astrologie".

Der Systemfehler liegt laut Tufekci wahrscheinlich darin, dass die Software schnell auf den Markt gebracht werden sollte und in der Eile "wichtige Zusammenhänge" übersehen wurden. Tim Brennan, der Gründer der Firma Northpointe, gab in einem frühen Interview mit Pro Publica sogar zu, es sei sehr schwierig, "eine Bewertung zu etablieren, die nicht mit Faktoren arbeitet, welche traditionell in Amerika mit der Hautfarbe in Verbindung gebracht werden: zum Beispiel Armut, Arbeitslosigkeit, soziale Marginalisierung." Um diese Gefahr zu minimieren, sind Sorgfalt und lange Testphasen geboten.

Als der Richter die Risikobewertung sah, setzte er die Strafe rauf

Wenn das fehlt, kommt es zu Fällen wie die von Paul Zilly, über den Pro Publica berichtet. Zilly hatte in Wisconsin einen Rasenmäher gestohlen. In Wisconsin ist die Risikobewertung der Algorithmen bei der Bestimmung des Strafmaßes zugelassen. Ursprünglich hatte Zillys Anwalt eine Gefängnisstrafe von einem Jahr ausgehandelt. Aber als der Richter die Risikobewertung sah, setzte er die Strafe auf zwei Jahre herauf, zuzüglich drei Jahre Bewährung.

Zillys Geschichte und die Tausender anderer weisen auf ein weiteres Problem mit dem Risiko-Algorithmus hin. Er knüpft das Risiko für Straffälligkeit an soziologische Faktoren wie Einkommen, Herkunft und Familie. So verstärkt er die Tendenz des Systems, Bevölkerungsgruppen zu brandmarken und dauerhaft von der produktiven Teilhabe an der Gesellschaft auszuschließen.

Doch der Druck von allen Seiten, die Algorithmen einzusetzen, war offenkundig so groß, dass keine Zeit für gründliche Tests blieb. Im Gefängnis-Distrikt in Florida etwa, den Pro Publica stellvertretend untersucht hat, waren die Gefängnisse restlos überfüllt. Häftlinge sollten entlassen werden, und die  Algorithmen versprachen den Richtern Rückendeckung, indem sie scheinbar objektiv zwischen bedenklichen und unbedenklichen Insassen unterschieden.

"Die Versuchung ist groß", sagt Tufekci. "Sie ist billig, leicht anzuwenden und sichert die Richter in ihren Entscheidungen ab." Ohne seriöse Feldforschung, wie jene, die Pro Publica nun nachgeliefert hat, ist diese Sicherheit jedoch trügerisch. Oder, wie Tufekci sagt: "Nur weil Mathematik benutzt wird, ist das noch lange keine Wissenschaft."