Im Herbst 1999 gab man sich bei Google einer Einkaufsorgie hin. Gut bei Kasse und ermuntert durch die beiden Risikokapitalgesellschaften, die in Google investiert hatten, verfügten Sergey und Larry über die erforderlichen Mittel für eine aggressive Erweiterung des Unternehmens. Wenn Google erhebliche Einnahmen erzielen wollte, musste es zusätzliche Computerteile und Speicherkapazitäten zur Vergrößerung seines Netzwerks erwerben.

Mittlerweile brauchten die beiden nicht mehr auf den Verladerampen von Stanford nach Computern Ausschau zu halten. Sie hatten die nächste Stufe erreicht, denn nun konnten sie zu Fry’s fahren, einem riesigen Elektromarkt im Silicon Valley. Dort deckten sie sich mit Standard-PCs, Festplatten und Speicherlaufwerken ein. Wieder im Googleplex angelangt, nahmen sie die Geräte auseinander und entfernten sämtliche überflüssigen Teile, die Kapazitäten und Ressourcen in Anspruch genommen hätten. Dann bauten sie genau angepasste Computer und verknüpften diese mit Software, Kabeln und dem Geheimrezept, durch das Google blitzgeschwind wurde.

"Wir wollen die höchstmögliche Rechenleistung pro Dollar erzielen", sagt Geoffrey Dean, einer von mehreren Ingenieuren, die Google in jenem Jahr dem Labor abwarb, das die AltaVista-Suchmaschine geschaffen hatte.

Dean und andere Googler aus jener Ära erzählen gern, wie sie eine Art Supercomputer aus vielen Alltags-PCs zusammenschusterten. Statt 800000 Dollar für ein hochwertiges IBM-System auszugeben, hätten sie bei RackSaver.com ein Sortiment von 88 Computern für nur 250000 Dollar gefunden, das eine vergleichbare Prozessorleistung und eine mehrfach höhere Speicherkapazität besaß. Außerdem benutzten sie das kostenlose Betriebssystem Linux, statt Software bei Microsoft zu kaufen. Die Ersparnisse verschafften Google einen beträchtlichen Vorteil gegenüber den Wettbewerbern – selbst denen, die zu dem gleichen Kapitalaufwand fähig waren. Für jeden ausgegebenen Dollar besaß Google dreimal mehr Rechenleistung als seine Konkurrenten.

Da den einfachen PCs von Google die Sicherungen und Redundanzen der komplizierten IBM-Supercomputer fehlten, waren sie störanfälliger. Wie die gewöhnlichen Desktop-Geräte, denen sie ähnelten, mussten die Google-PCs nach durchschnittlich zwei bis drei Jahren ersetzt werden. Sogar funktionsfähige Rechner wurden manchmal nach zwei Jahren ausgemustert, weil sie inzwischen langsamer waren als neuere Geräte. Angesichts der hohen Zahl von Computern, die Google einsetzte, war es unvermeidlich, dass jeden Tag mehrere versagten. Sergey und Larry hatten beschlossen, die ständigen Ausfälle mit Hilfe von Software zu überwinden, was bedeutete, dass ausgediente PCs nicht manuell entfernt und ersetzt, sondern umgangen wurden.

Nun schaltete sich Dr. Reese ein, der keine Operationen an Menschen mehr vornahm, sondern half, Software zu erfinden, welche die Schnelligkeit und Zuverlässigkeit von Google trotz aller Widrigkeiten gewährleistete. Sein Team und er verteilten Daten und Rechenfunktionen auf eine große Zahl von Computern an mehreren Standorten und schufen dadurch ein System, das mit etlichen Fehlern fertig werden konnte, ohne abzustürzen. Nachdem dieses Schlüsselelement der Googleware am Platz war, konnte Dr. Reese, der Hirnchirurg, das gesamte kostbare Netzwerk von einem Ort aus überwachen, statt die Datenzentren von Google abpatrouillieren zu müssen.(…)

Dies könnte das Geheimnis von Google sein. Experten betrachten Personalcomputer im Allgemeinen als Bedarfsartikel, vergleichbar mit Toastern, doch Google montiert (heute, Anm. d. Red.) über 100000 billige PCs, setzt sie ein und verbessert dauernd ihre Performance. Keine Gesellschaft verfügt über eine größere Rechenleistung als Google mit seinem Netzwerk gewöhnlicher, doch aufgemotzter PCs.

"Sie betreiben das größte Computersystem der Welt", kommentiert Hennessy. "Ich glaube nicht, dass jemand auch nur über eine annähernde Kapazität verfügt." (…)

Schlüsselwörter für die Werbung werden bei Auktionen versteigert