Wenn die Mathematikerin Ricarda Winkelmann ein Modell des antarktischen Eispanzers verfeinert, ist sie auf die Vorarbeiten vieler Kollegen angewiesen. Forscher des British Arctic Survey haben über Jahre Temperatur, Niederschlag, Dicke und Fließgeschwindigkeit der polaren Gletscher gemessen, die Geografin Anne Le Brocq hat ein Verfahren entwickelt, das die einzelnen lokalen Messwerte auf ausgedehnte Gebiete hochrechnen kann.

All das ist Grundlage für das Modell, an dem Winkelmann arbeitet – und entscheidet über dessen Qualität. »Hat sich in die Vorarbeiten ein Fehler eingeschlichen«, weiß sie, »wird das Modell falsche Ergebnisse liefern.«

Vor allem die Untersuchung komplexer Entwicklungen wie der Abnahme der Artenvielfalt, der globalen Umweltverschmutzung oder des Klimawandels ist zunehmend auf Computersimulationen angewiesen. Winkelmanns Chef am Potsdam-Institut für Klimafolgenforschung, Hans Joachim Schellnhuber, geht davon aus, dass in Zukunft dort, und nicht mehr in Beobachtung und Experiment, die wissenschaftliche »Interpretations-Lufthoheit« liegen wird. Möglichst viele Messwerte sind das A und O dafür. Und möglichst korrekte.

Persönlich müssen sich die Sammler und die Modellierer all der Daten nicht kennen. Auch Ricarda Winkelmann ist den Forschern, auf deren Daten sie sich stützt, nie begegnet. Die Mathematikerin bezieht ihre Zahlenkolonnen aus Pangaea , dem Publishing Network for Geoscientific and Environmental Data.

Fast fünf Milliarden einzelne Messwerte sind dort gespeichert, zusammengefasst in 600.000 Datensätzen – das weltgrößte Archiv für die Geo- und Umweltwissenschaften. Die Artenvielfalt im Meeressediment vor Helgoland, der Pegelstand des westafrikanischen Volta-Flusses, die Verbreitung der Wölfe vor der letzten Eiszeit – es gibt fast nichts, was es in Pangaea nicht gibt.