US-Behörden sind für ihren Datenhunger berüchtigt: Nach dem 11. September 2001 hörte etwa der Geheimdienst NSA ohne richterliche Genehmigung zahllose Bürger ab. Der ehemalige NSA-Mitarbeiter Bill Binney glaubt sogar, dass die Behörde vorsorglich die E-Mails aller US-Bürger speichert  – für den Fall, dass Ermittlungsbehörden sie irgendwann brauchen. Entsprechend hoch soll die Saugkraft des vor allem für die Überwachung weltweiter Kommunikation zuständigen Geheimdienstes sein: Berichten zufolge kann er innerhalb von sechs Stunden so viele Daten abgreifen und speichern, wie in der Library of Congress lagern, der zweitgrößten Bibliothek der Welt.

Die Daten zu sammeln ist aber nur der Anfang. Derzeit arbeiten die US-Sicherheitsbehörden am nächsten Schritt: Die Vergangenheit auszuwerten reicht ihnen nicht mehr, sie wollen mit neuen Techniken die Zukunft vorhersagen. Die Liste der entsprechenden Versuche ist lang und bedrückend. Und der Drang, immer mehr Informationen zu bekommen, wird dabei zunehmend zur Gefahr für den Rechtsstaat.

Es ist ein alter Traum, in der neuen Welt der Zukunft sollen Verbrechen gar nicht erst begangen werden. "Ende des 19. Jahrhunderts glaubte man daran, aus den Gesichtszügen kriminelle Veranlagungen ablesen zu können", sagt Lillie Coney von der US-Bürgerrechtsorganisation Epic. Heute versuche man etwas Ähnliches, aber mit neuen Technologien.

Derzeit testet etwa das Heimatschutzministerium den Nachfolger des Nacktscanners, den Gedanken-Scanner. Laut Dokumenten, die Epic veröffentlicht hat, soll das neue Gerät anhand von Stimmhöhe, Herzfrequenz oder Atmung böse Absichten erkennen. Das Ziel: Die Attentäter sollen gefunden werden, bevor sie die Bombe zünden.

Geschwärzte Dokumente

Was nach Science Fiction klingt, könnte tatsächlich bald zum Standard an amerikanischen Flughäfen werden. Ein Prototyp wurde bereits im Frühjahr getestet. Ob die Menschen, die gescannt wurden, wussten, bei welchem Test sie da mitmachen, ist den Dokumenten, die die US-Regierung jetzt herausgeben musste, nicht zu entnehmen. Große Teile sind geschwärzt.

Dem Prototypen ist auf den ersten Blick nicht anzusehen, dass er letztlich in den Kopf hineinschauen soll. Er erinnert an eine Sicherheitsschleuse, wie man sie vom Flughafen kennt. Wer gescannt wird, muss sich auf eine Matte stellen und in eine Kamera schauen. Anschließend muss er durch ein Tor laufen, das einem Metalldetektor ähnelt.

Doch nicht nur ein schneller Herzschlag soll Täter verraten. Auch der Gang eines Menschen kann etwas über ihn aussagen. Biometrie-Experten der Universität Notre Dame im Bundesstaat Indiana arbeiten daran, neue Instrumente zu entwickeln, damit Sicherheitsbehörden die Bilderfluten von Überwachungskameras verarbeiten können. Ihre Software soll künftig Menschen, die sich auffällig verhalten, aus dem Bilderstrom der Überwachungskameras auf Flughäfen oder Bahnhöfen herausfiltern. 

So sei etwa bekannt, dass Selbstmordattentäter ihren Tatort vor der Tat mehrfach aufsuchen. Anders als Pendler kämen sie aber nicht in regelmäßigen, sondern eher in unregelmäßigen Abständen an den Kameras vorbei. Die neue Software soll das Sicherheitspersonal auf diese Verdächtigen aufmerksam machen – für weitere Ermittlungen.

Selbst Änderungen bei Wikipedia werden registriert

Die Iarpa wiederum, das 2006 gegründete Forschungszentrum der amerikanischen Geheimdienste, sucht derzeit nach einem Weg, alle wichtigen öffentlichen Datenströme im Internet vollautomatisch im Blick zu behalten. Im April 2012 ist dazu ein Feldversuch geplant. Bis vor wenigen Tagen konnten sich US-Universitäten für das Projekt bewerben.

Ideale Grenzen identifizieren

Zunächst sollen laut der Ausschreibung nur 21 Staaten in Lateinamerika per Internet überwacht werden. Anhand von Nachrichtenseiten, Blogs, Tweets, Webcams, Aktienkursen oder Änderungen in Wikipedia-Einträgen soll das noch zu entwickelnde Computerprogramm nahende politische Aufstände, Bürgerkriege oder Finanzkrisen identifizieren. Das vollautomatische System soll schneller sein als Radio, Online-Medien oder Nachrichtenagenturen. Kurz: Es soll die Zukunft vorhersagen.

Datenschützer in den USA befürchten laut New York Times, diese Technik könnte später auch in den USA eingesetzt werden. Sie ließe sich dann dazu missbrauchen, politische Gegner zu unterdrücken.

Auch die internationale Politik könnte sich dank der Analysen von Big-Data bald grundlegend verändern. US-Forscher in Cambridge arbeiten derzeit an einem Computer-Modell, mit dem sich ethnische Konflikte voraussagen lassen. Dazu werden vor allem Daten aus ganz gewöhnlichen Volkszählungen ausgewertet und mit den geographischen Gegebenheiten abgeglichen. Nachdem die Wissenschaftler bereits erfolgreich Indien, Jugoslawien und die Schweiz durchgespielt haben, kommen sie jetzt zu dem Schluss, dass richtig gezogene Grenzen Gewalt verhindern können. Die Software soll dabei helfen, diese neuen Grenzen zu identifizieren.

Ob diese Techniken die in sie gesetzten Hoffnungen wirklich erfüllen können, ist natürlich fraglich. Schließlich könnte der Gedankenscanner auch anschlagen, weil es einen Menschen ziemlich nervös macht, dass seine Gedanken nun gescannt werden. Bei der Kamera-Überwachung könnte auch ein Selbstmordattentäter durch die Lappen gehen, dessen Anschlagsort auf seinem Weg zur Arbeit liegt. Das Iarpa-System könnte mit der Datenmenge, die derzeit rund zwei Milliarden Menschen ins Web blasen, schlicht überfordert sein. Und das Modell zur ethnischen Gewalt ist möglicherweise einfach zu simpel.

Doch die Ansätze all dieser Techniken bestätigen einen Trend, der sich spätestens seit dem 11. September 2001 abzeichnet: Mit der Auswertung immer größerer Datenmengen soll der nächste Anschlag verhindert werden. Gefahrenabrwehr heißt das Konzept, das auch in Deutschland längst etabliert ist. Selbst wenn dieses Wissen nicht missbraucht wird, höhlt es den Rechtsstaat aus.

Denn die Technik unterstellt anhand statistischer Wahrscheinlichkeiten künftige Handlungen oder Ereignisse. Doch weil immer mal wieder auch das Unwahrscheinliche eintritt, sind zuverlässige Aussagen über die Zukunft schlicht nicht möglich. Ein Restzweifel wird immer bleiben, egal wie gut die Algorithmen sind. Auf der anderen Seite schafft das vermeintliche Wissen ein Gebot zu Handeln – schließlich kann man Finanzkrisen, Terroranschläge oder Völkermorde nicht einfach geschehen lassen. Daraus entsteht ein moralisches Dilemma: Eigentlich verbietet es der Restzweifel einem Rechtsstaat, verdächtige Personen präventiv zu verhaften. Wie wird man sich im Ernstfall entscheiden?

Mit den Folgen der ersten Versuche einer Früherkennung von Verbrechen im 19. Jahrhundert haben die USA zumindest schlechte Erfahrungen gemacht. Die Idee, Verbrecher an ihrem Äußern erkennen zu können, wurde von der Wissenschaft im 20. Jahrhundert wieder verworfen. Die Polizei aber setzte bei ihren Fahndungen trotzdem zunehmend auf rassische Kriterien. Das so genannte Racial Profiling verfälscht laut Bürgerrechtlerin Lillie Coney bis heute die Verbrechensstatistiken – zum Nachteil der schwarzen Minderheit.