Die Halle ruht auf Gummifüßen, kann schwingen wie ein Wackelpudding – die Gegend ist tektonisch recht unruhig. Das metallisch glänzende Monstrum, groß wie ein Flugzeughangar, steht im Bezirk Kanazawa in Yokohama. In seinem Innern dröhnt ein Jumbo der Rechenkunst, der derzeit größte Computer der Welt. Lichtleiter erhellen über 3000 Quadratmeter endloser Blechschrank-Reihen. Dazwischen werkelt eine einsame Putzkraft. Im Untergeschoss türmen sich die Strippen – ein erstarrtes Meer blauer Kabel, gut 3000 Kilometer lang und 600 Tonnen schwer. 10 Terabyte Arbeitsspeicher hat das summende Superhirn – das ist mit der Informationskapazität der U.S. Library of Congress vergleichbar (20 Terabyte). Am Rande stehen gigantische Festplattenschränke und Silos mit Roboterarmen, die Tausende von Speicherbändern bewegen. Die Datenmassen werden in Petabyte gemessen – eine Zahl mit 15 Nullen.

Natürlich ist Japan stolz auf seinen "Erdsimulator". Zumal er nur edlen, friedlichen Zwecken dient, zuvorderst der Klima- und Erdbebenforschung. Ein "Missionsdefinitionskomitee" aus 23 Topwissenschaftlern bewacht den Zugang, verteilt penibel die kostbaren Rechenressourcen. Man will die Großrechenkraft keinesfalls an "kleine Jobs" verschwenden, die auch Allerweltscomputer leicht bewältigen könnten. Kein vernünftiger Mensch holt eine Tüte Pommes mit einem Sattelschlepper.

In diesem Jahr dürfen 14 Projekte der Klima- und Ozeanforschung ein Drittel der Maschinenzeit nutzen. Ein Fünftel teilen sich geologische Projekte, zehn Prozent gehen an die Computerwissenschaftler. Im Superrechner werden Raketentriebwerke simuliert, auch virtuelle Bastelstunden mit Kohlenstoff-Nanoröhrchen und eine Studie über das Standardmodell der Elementarteilchen stehen auf der Forschungsliste. "Simulation ist das Werkzeug, um Designs für die Zukunft zu entwerfen", sagt Tetsuya Sato, Direktor des Erdsimulators. 20 Prozent der Rechenzeit darf der Chef selbst vergeben. Er bedenkt vor allem internationale Klimaforschung und Ozeanografie – aber auch ein Konsortium von Automobilfirmen, die ein ganz neues Produkt entwickeln wollen.

Für solch große Aufgaben ist die Rechenpower von Supercomputern unverzichtbar. Um etwa Veränderungen des Erdklimas durchrechnen zu können, möchten die Forscher ihre Gleichungen an möglichst vielen Knotenpunkten eines gedachten Netzes um den Erdball lösen. Je enger die Maschen dieses Klimanetzes, desto besser lassen sich verschiedene Varianten durchspielen. Auch Wettervorhersagen werden so präziser. Bei einem Gitternetz mit Abständen von 100 Kilometern kann man kaum einen Taifun vorhersagen, mit 10 Kilometer weiten Maschen dagegen schon.

Ein Zehntel der Maschendichte aber heißt: hundertmal so viele Gitterpunkte. Entsprechend potenziert sich die Rechenzeit. Wirft man etwa ein Gitternetz über die Erde mit 50 mal 50 Kilometer großen Maschen, bräuchte ein normaler PC wohl an die 400 Jahre, um solch eine Simulation zu berechnen. Mit 10 Teraflop Leistung aber – sprich: zehn Billionen Rechenoperationen pro Sekunde – ist das in fünf Arbeitstagen zu schaffen.

Aus einem Gefühl der Dringlichkeit heraus beschloss 1997 die japanische Regierung, 350 Millionen Dollar für eine solche Supermaschine auszugeben. Zwei Jahre zuvor hatte ein großes Erdbeben die Stadt Kobe verwüstet. Auch stand die Kyoto-Klimakonferenz kurz bevor. Gesucht war ein Computer, der helfen konnte, die Bewegungen der Erdkruste und Phänomene wie El Niño und die globale Erwärmung besser zu verstehen. Ein bisschen Renommee für "made in Japan" war ebenfalls willkommen.

Drei Regierungsagenturen machten sich an die Arbeit: Japans Raumfahrtagentur Nasda, das Atomforschungsinstitut Jaeri und das Marine Science and Technology Center Jamstec, das die Federführung übernahm. Fünf Jahre später war der Koloss startklar: Eine Spezialanfertigung der Elektronikfirma NEC mit 640 Prozessorknoten, die jeder mit 8 Prozessoren bestückt sind. Der hochparallele Vektorrechner besitzt 60 Millionen Transistoren auf jedem Chip – die werden beim Rechnen hübsch warm. Spötter sagen daher, der Erdsimulator habe durchaus seinen Anteil an der Erderwärmung.

Im März 2002 ging der Erdsimulator an den Start. Fünf Billionen Rechenoperationen pro Sekunde (5 Teraflops) wollten die japanischen Wissenschaftler erreichen – der neue Apparat schaffte auf Anhieb 7,2 Teraflops und stand im Nu an der Spitze der Computer-Weltrangliste. Bis dahin war der schnellste Computer der ASCI White am Lawrence Livermore National Laboratory gewesen, der unter anderem Atomwaffentests simuliert. Im Mai 2002 erreichte der Earth Simulator bereits 35,86 Teraflops – das Fünffache vom ASCI White.