Das Strafvollzugssystem der USA hat skandalös versagt. Das  ist mittlerweile selbst im konservativen Lager der USA unstrittig. Seit den siebziger Jahren ist die Zahl der Inhaftierten um 700 Prozent gestiegen, 25 Prozent aller Häftlinge der Welt sitzen in US-amerikanischen Gefängnissen. Einen nennenswerten Einfluss auf die Anzahl der Verbrechen hat der Einsperrwahn nicht gehabt.

So sucht man in den USA nach Lösungen, um die überfüllten Gefängnisse und mit ihnen die Staatskassen zu entlasten. Eine gute Lösung schien die Empfehlung der Bürgerrechtsvereinigung ACLU (American Civil Liberties Union) zu sein. Sie hatte einem Bericht zur Strafrechtsreform 2011 vorgeschlagen, durch kluge Datenanalyse zu kalkulieren, wie groß das Risiko von Straftätern sei, rückfällig zu werden und somit eine langfristige Gefahr für die Gesellschaft.

Es war die Hoffnung von ACLU, dass so harmlose Personen aus dem Strafvollzug herausgehalten werden könnten, gezielte Prävention möglich sei und man sich dann auf die wirklichen Probleme konzentrieren könnte.

Justizminister Eric Holder ist da skeptisch. Doch in der Mehrheit der US-Staaten werden mittlerweile sogenannte Risiko-Einschätzungsalgorithmen eingesetzt. Sie sollen die Wahrscheinlichkeit errechnen, mit der ein Straftäter erneut straffällig wird. Sie werden angewandt, wenn über Bewährung entschieden werden muss, wenn es darum geht, ob Untersuchungshaft notwendig ist oder wie lang die  Haftstrafe ausfällt.

Prognosen nur wenig präziser als ein Münzwurf

Allerdings stellt sich jetzt heraus, dass diese Methode lediglich die Probleme reproduziert, die das System ohnehin hat. Das größte ist die Diskriminierung der Afroamerikaner.

In der vergangenen Woche veröffentlichte die New Yorker Stiftung für investigativen Journalismus Pro Publica eine Recherche über die Objektivität der Algorithmen, die die Rückfallgefahr von Straftätern prognostizieren. Das Ergebnis war verheerend.

Die Prognosen waren "nur wenig präziser als ein Münzwurf", schreibt  Autorin Julia Angwin. In 61 Prozent aller Fälle vermochten sie, zukünftige Straftäter akkurat zu identifizieren. Bei Gewaltverbrechen waren es lediglich 20 Prozent, der Algorithmus lag hier zu 80 Prozent falsch.

Im Ergebnis wurde Schwarzen öfter fälschlicherweise ein hohes Risiko zugeordnet, Weißen dagegen öfter fälschlich ein niedriges: Afroamerikanischen Straftätern wurde zu 77 Prozent mehr zugetraut, eine zukünftige Gewalttat zu begehen, als weißen Straftätern. Ihr Risiko, eine Straftat anderer Kategorien zu begehen, lag bei 45 Prozent. Auf der anderen Seite wurden 23 Prozent der weißen Straftäter, die als riskant eingestuft wurden, nicht rückfällig, unter Afroamerikanern waren es 44,9 Prozent. Weiße Straftäter, die für unbedenklich gehalten wurden, wurden zu 47,7 Prozent rückfällig, schwarze zu 28 Prozent.

"Algorithmen könnten sehr nützlich sein"

Diese Recherche beeinflusst nun die Debatte über die Objektivität von Algorithmen, die in den USA ohnehin geführt wird. Facebook musste sich jüngst den Vorwurf konservativer Politiker gefallen lassen, bei der Auswahl favorisierter Nachrichten parteiisch zu sein. Der linksliberale Mark Zuckerberg konnte diesen Verdacht nicht wirklich überzeugend entkräften.

Pro Publicas Theorie über den Rassismus der Algorithmen gründet in deren Machart. Die Software schreibt jedem einzelnen Straftäter einen Risikoquotienten zu. Dieser wird aufgrund einer Befragung errechnet, der jeder Delinquent bei seiner Aufnahme unterzogen wird. Die Antworten werden mit Datenbanken über in der Vergangenheit verurteilte Straftäter  abgeglichen.

All das könnte theoretisch dazu beitragen, die Gefängnisse ethnisch unvoreingenommene zu entlasten und somit das amerikanische Strafrecht gerechter zu machen. "Wenn man die Algorithmen richtig baut, können sie sehr nützlich sein", sagt Zeynep Tufekci, Expertin für die sozialen Folgen von Technologieanwendung und für Fragen der sozialen Gerechtigkeit an der Universität von North Carolina.

Allerdings hat Tufekci nicht den Eindruck, dass beim Bau dieser Algorithmen die gegebene Sorgfalt angewandt wurde. "Es ist schon bemerkenswert, dass erst die Journalisten von Pro Publica diese extremen Ungenauigkeiten gefunden haben", sagt sie. Auf die Idee, eine Blindprobe zu nehmen, wie es Pro Publica getan hat, hätten die Macher der Software selbst lange vor der Implementierung kommen müssen. "Ich setze ja auch kein neues Flugzeug im Linienverkehr ein, bevor ich einen Testflug gemacht habe."