1. Die Parkplatz-Suchmaschine

Nie wieder im Stau stehen, keine roten Ampeln mehr und immer einen Parkplatz finden ... Autofahrer mögen davon träumen, durch Datenanalyse im großen Stil könnte diese Utopie wahr werden. So fingen die Stockholmer schon 2006 an, ihren Straßenverkehr per Big Data zu steuern. Innerhalb von nur drei Jahren habe man die durchschnittliche Fahrzeit der Autofahrer um die Hälfte und den Schadstoffausstoß um ein knappes Fünftel senken können, berichtet IBM, von dem das smarte Verkehrssystem stammt. Zunächst kommunizierten in der Innenstadt Funkmarker in den Autos mit Kontrollstationen entlang der Straßen, auf diese Weise wurde die Maut automatisch abgerechnet. Heute erfassen Kameras Autokennzeichen, und die Gebühren werden monatlich abgerechnet.

Auch hierzulande erhoffen sich Verkehrsdezernenten von Big Data flüssigeren Verkehr, bessere Stadtluft und mehr Klimaschutz. Die nötigen Daten jedenfalls wären vorhanden: Jede größere Stadt mit eigenem Verkehrsleitsystem speichert rund um die Uhr die Bewegungen auf ihren Straßen.

In Darmstadt zum Beispiel erfassen Tausende von Detektoren, wann Fußgänger Ampeltasten drücken oder Busse und Straßenbahnen ihren Sonderampeln ein Signal senden. Induktionsschleifen im Asphalt melden, wann und wie lange sie überrollt wurden. Daraus ergibt sich die Geschwindigkeit der Autos. Und rund 200 Kameras an 180 Ampeln zählen die Fahrzeuge – "ohne sie zu fotografieren oder die Kennzeichen zu erfassen", sagt Max Mühlhäuser, Informatikprofessor an der TU Darmstadt. Er und sein Team haben eine Plattform entwickelt, die all diese Verkehrsdaten verknüpft, auswertet und sie darüber hinaus öffentlich sichtbar macht: Open Data aus dem Stadtverkehr.

Die dazugehörige Traffic App zeigt einen Straßenplan der Darmstädter Innenstadt, der alle 300 Millisekunden aktualisiert wird und die Verkehrslage in Echtzeit wiedergibt. Grün heißt freie Fahrt, Gelb stockender Verkehr, und Rot bedeutet Stau. Das wirkt ähnlich wie bei Google Maps. Doch die Traffic App soll bald mehr bieten: dem Fahrer mitteilen, wie schnell er fahren muss, damit er die nächste Ampel bei Grün erwischt, oder ihn zu einer freien Parklücke lotsen.

Offene Fragen: Wie anonym können solche Systeme funktionieren? Wird diese Technik bald genutzt, um Bewegungsprofile zu erstellen?

2. Das Blut als Datenträger

Die Spuren eines Tumors, der irgendwo im Körper wächst, in einer kleinen Blutprobe aufzuspüren und seine Art zu bestimmen, das ist das Versprechen von liquid biopsy. Diese Flüssigbiopsie erspart dem Patienten die herkömmliche, mehr oder weniger riskante Gewebeentnahme, bei der mit einer Nadel ins betroffene Organ gestochen wird. Per Blutuntersuchung, so sagt es das Deutsche Krebsforschungszentrum, könne man etwa einen Rückfall sehr früh erkennen oder regelmäßig überwachen, ob ein Tumor auf eine Therapie reagiert.

Dafür genügen zwei Teelöffel Blut: Molekularbiologen fischen darin treibende Tumorzellen oder Erbgutabschnitte von Tumorzellen heraus und lassen sie analysieren. Eine Software vergleicht die DNA-Abschnitte mit Daten aus dem Erbgut Gesunder und erkennt dadurch die krankhaften Veränderungen. Dabei fallen unzählige Informationen an. Jede einzelne erfolgreiche Analyse verbessert die Aussagekraft dieser Methode, die Diagnose wird genauer, und Ärzte können gezielter Medikamente auswählen. "Verbesserte Rechenleistung wird dazu führen, die Komplexität von tumorbedingten Erbgutveränderungen besser in den Griff zu bekommen und somit die Genauigkeit der liquid biopsy- Analysen zu steigern", sagt Klaus Pantel, Professor für Tumorbiologie am Universitätsklinikum Eppendorf. Das ist das Versprechen von Big Data gegen Krebs.

Offene Fragen: Wie zuverlässig ist die Diagnose? Werden die Krankenkassen die flüssige Biopsie und ihre Analyse erstatten?

3. Eine Bibliothek lesen

Big Data revolutioniert gerade einen Forschungszweig, bei dem man es vielleicht am wenigsten vermuten würde: die Literaturwissenschaft. Vorreiter ist Franco Moretti, Literaturprofessor aus Kalifornien (und Bruder des Filmregisseurs Nanni Moretti). Der Professor erforscht Literatur, indem er sie nicht aus der Nähe, sondern aus der Ferne betrachtet: Distant reading nannte er seine Methode ursprünglich im Scherz als Gegensatz zum althergebrachten close reading, bei dem der Leser in einem Buch gleichsam versinkt. Aber längst ist die Formulierung zum Inbegriff einer neuen quantifizierenden Literaturanalyse geworden. Den Forschern geht es nicht mehr um den einen Absatz, die eine Seite eines Textes, sondern um wiederkehrende Muster in einer großen Textmasse. Leser ist dabei ein Computerprogramm, das digitalisierte Bücher auf unterschiedliche Kriterien hin auswertet. Zum Beispiel, indem es zählt, wie häufig das Wort Liebe in einem Text vorkommt. In Morettis aktuellem Forschungsprojekt analysiert die Software gleichzeitig 15.000 Romane, die zwischen den Jahren 1700 und 1900 erschienen sind und in London spielen. Eine bestimmte Anzahl von Wörtern vor und nach Namen von Londoner Parks, Plätzen, Straßen oder Brücken wird auf ihren emotionalen Gehalt hin untersucht: Deuten sie auf Glück hin oder auf Traurigkeit? Die Ergebnisse fließen in Excel-Tabellen ein und werden dann mit einer Karte verknüpft, sodass ein "Gefühlsstadtplan" entsteht. So zeigte sich etwa, dass der Tower – kaum überraschend – lange Zeit mit Angst verbunden war. "Um das herauszufinden, hätten wir kein Big Data gebraucht", sagt Moretti. "Was wir allerdings ohne die Analyse von Abertausenden von Ortsnamen nicht gewusst hätten: dass die Darstellung von London im Roman nach 1800 gleich blieb, obwohl sich die soziale Wirklichkeit längst gewandelt hatte."