Der japanische Earth Simulator führt die Bestenliste der Supercomputer seit zwei Jahren an. Aber sein voraussichtlicher Nachfolger lässt schon einmal die Muskeln spielen. Blue Gene, gebaut von IBM, belegt in diesem Jahr Platz vier. "Ich rechne damit, dass nächstes Jahr der Earth Simulator fällig ist", sagt Hans Werner Meuer, der in dieser Woche in Heidelberg das Spitzentreffen der Supercomputer-Branche organisiert hat (siehe nebenstehenden Kasten). Das Blue-Gene-Modell dieses Jahres besteht aus 8192 Prozessoren. Nächstes Jahr soll am Lawrence-Livermore-Atomwaffenforschungszentrum eine Version mit 65536 Prozessoren ihren Dienst antreten und eine Rechenleistung von 360 Teraflops entfalten – zehnmal so viel, wie der Earth Simulator schafft. Der japanische Rechenriese wird dagegen bald antiquiert aussehen.

Gebaut werden die neuen Superrechner vorerst im IBM-Labor in Yorktown Heights im US-Bundesstaat New York. In fensterlosen Bürowürfeln brüten die Mitarbeiter, auch Projektleiter Alan Gara hat nur einige Quadratmeter zur Verfügung. Die Werkstatt, in der ein paar Techniker die Prozessoren in kühlschrankgroße Racks einbauen, erinnert mehr an eine Garagenfirma im Silicon Valley der neunziger Jahre als an ein High-Tech-Labor, in dem die Bausteine für den schnellsten Rechner der Welt entstehen.

Aber die reine Protzerei mit Teraflops war nicht das einzige Ziel bei der Entwicklung von Blue Gene. Man könnte sicherlich auch einen Super-Earth Simulator mit der zehnfachen Leistung des heutigen bauen. Der würde allerdings 50 Megawatt aus dem Stromnetz ziehen und sein eigenes Kraftwerk benötigen. So wie bei der Formel 1 ungern über den Benzinverbrauch geredet wird, verschweigt die Top-500-Liste der Supercomputer die Höhe der Stromrechnung für deren Betrieb. "Wir haben entdeckt, dass wir einen Computer bauen können, der sehr viel mehr Leistung pro Watt erbringt", erzählt Alan Gara. Der 360-Teraflops-Rechner des nächsten Jahres soll nur 1,5 Megawatt verbrauchen. Anders gesagt: Er wird etwa 30-mal so viele Zahlen pro Kilowattstunde knacken wie der Earth Simulator.

So günstige Werte erreichen die IBM-Techniker mit einem zunächst paradox erscheinenden Kniff: Sie lassen die Prozessoren langsamer laufen. Die Chips sind mit weniger als einem Megahertz getaktet – das würde heute niemand mehr bei einem PC aus dem Supermarkt akzeptieren. Aber bei dieser Taktrate ist der Energieverbrauch besonders günstig, und die Rechenkraft zieht die Maschine daraus, dass viele Prozessoren parallel arbeiten. Verbunden sind sie mit gleich fünf unterschiedlichen Netzwerken. Selbst bei der 65536-Prozessoren-Maschine wird kein Rechenknoten weiter als 64 Schritte von einem beliebigen anderen entfernt sein.

Supercomputer für jedermann

Diese hochgradige Vernetzung von Blue Gene ist ein Grund für die gute Skalierbarkeit des Systems – Baustein für Baustein kann man die Prozessoren zu immer größeren Rechnern zusammenstöpseln. Bei anderen Arten von Rechner-Clustern gehen – wie in einem großen Beamtenapparat – irgendwann so viele Ressourcen für die die "Verwaltung" der Prozessoren drauf, dass auch durch neue Chips die Rechenleistung nicht mehr steigt.

Wie der Name schon sagt, ist Blue Gene vor allem für die biochemische Forschung entwickelt worden. Auf den Testmaschinen in Yorktown Heights kann man schon heute Simulationen von Proteinen betrachten – Biomoleküle, deren Eigenschaften stark abhängen von ihrer dreidimensionalen Gestalt. Um die Faltungen dieser Ketten aus Tausenden von Atomen zu berechnen, muss man ihr Verhalten in einer wässrigen Lösung simulieren. Und das bedeutet: Nicht nur die Bindungen innerhalb des Moleküls, sondern die Interaktion mit jedem einzelnen Wassermolekül in der näheren Umgebung muss berechnet werden. Schon die Simulation einer Millisekunde zwingt heutige Rechner in die Knie.

Ein weiterer Blue-Gene-Computer wird bei den Radioastronomen von Astron installiert. Die niederländische Organisation verfügt über ein Netz aus 10000 preiswerten Radioteleskopen in den Niederlanden und Niedersachsen. Per Software wird daraus ein riesiges "virtuelles Teleskop", mit dem die Forscher 13 Milliarden Lichtjahre ins All und damit 13 Milliarden Jahre in die Vergangenheit schauen wollen – sozusagen in die Geburtsstunde des Weltalls. Um das zu tun, nimmt das System pro Sekunde 768 Gigabit an Daten entgegen – das entspricht dem Datenfluss über eine Million schneller Telekom-Internet-Anschlüsse.