Gewitterstürme wie der im vergangenen Sommer sind schon oft über die amerikanische Ostküste hinweggefegt. Winde mit Geschwindigkeiten von bis zu 140 Kilometern pro Stunde hatten Bäume entwurzelt, Dächer abgedeckt und Strommasten umgeknickt. Doch diesmal kam es noch schlimmer: Nicht nur Hunderttausende Anwohner sollten unter den Sturmfolgen leiden, sondern auch Millionen Menschen in Tausenden Kilometern Entfernung – an der Westküste der USA, in Europa, in Asien.

Als der Strom in Hunderttausenden Haushalten im Bundesstaat Virginia ausfiel, gingen auch in einem gigantischen Rechenzentrum im Städtchen Ashburn die Lichter aus. Zwei Notstromaggregate, eigentlich nur für solche Notfälle angeschafft, sprangen nicht an. Und so verschwanden plötzlich unzählige Onlinedienste im digitalen Nirwana. Für viele der 30 Millionen Kunden der Internet-Videothek Netflix blieben die Bildschirme schwarz. Die Schnappschuss-Seite Instagram war unerreichbar. Und auch die Seite des Sozialen Netzwerks Pinterest zeigte sich plötzlich ganz unsozial – es herrschte gähnende Leere.

Wie ist es möglich, dass einige der beliebtesten Seiten im Netz auf einmal verschwinden? Wie verletzlich ist das moderne Internet? Hatte das amerikanische Militär es nicht einst so entworfen, dass es sogar einen Atombombenschlag der Sowjets überstehen sollte – und nun legen Blitz und Donner eine Website nach der anderen lahm?

Die Antwort ist einfach: Die alte Regel der Militärs, wichtige Ressourcen so weit wie möglich über das Netz zu verteilen, um die Schäden durch Ausfälle zu minimieren, wird längst nicht mehr so streng befolgt wie noch in den Anfangsjahren des Internets. Heute ballen sich an einigen wenigen Orten ungeheure Datenmassen – wie eben in dem Rechenzentrum im Norden Virginias. Der klotzige Bau gehört dem Internetkonzern Amazon, der vor allem als Onlinekaufhaus bekannt ist. Nur wenige wissen, dass das Unternehmen auch Computer-, Speicher- und Datenbankkapazitäten an die halbe Internetbranche vermietet. Ein Milliardengeschäft, das Amazon-Chef Jeff Bezos in den Sinn kam, als er merkte, dass seine Rechner nicht ausgelastet waren. Warum also nicht mit den freien Kapazitäten Geld verdienen?

Natürlich ist Amazon längst nicht mehr allein, inzwischen bieten auch andere Internetgrößen wie Microsoft, IBM oder Google Speicherplatz und Rechenkapazitäten an. Und natürlich werben sie alle mit ausgereiften Sicherheitssystemen, die Daten vor Ausfällen und Diebstahl schützen sollen: Kühlungen, Notstromaggregate, Alarmanlagen und Wachpersonal inklusive. Doch eine hundertprozentige Sicherheit gibt es nicht, und so kommen Ausfälle wie im Sommer oft vor. Das Amazon-Rechenzentrum etwa wurde danach bereits zweimal wieder von Ausfällen heimgesucht, zuletzt an Heiligabend – trotz aller Beteuerungen des Konzerns, die Zuverlässigkeit seiner Leihrechner sei höchste Priorität.

Dennoch verlassen sich inzwischen mehrere Hunderttausend Unternehmen allein auf Amazon, darunter Konzerne wie Shell, Pfizer oder Newsweek, aber auch Institutionen wie die Nasa. Doch vor allem machen sich Start-ups abhängig von den Giganten. Sie verlagern Webseiten, Datenbanken oder E-Mail-Systeme in die sogenannte Cloud – so nennen Computerexperten die riesigen Rechenzentren, die über das Internet erreichbar sind und deren Speicherplatz so endlos erscheint wie ein Wolkenhimmel.

Warum aber gehen die Firmen das Risiko ein, sich nur auf einen, womöglich anfälligen Dienstleister zu verlassen? Ein Grund ist ein Paradigmenwechsel, der vom kalifornischen Silicon Valley ausgegangen ist. Dort wird seit einigen Jahren die Philosophie des Lean Start-ups propagiert – des schlanken Unternehmens. Eines der Dogmen: Anstatt direkt viel Geld für eigene Server und Computerexperten auszugeben, sollen Gründer erst einmal Computerkapazitäten billig anmieten und damit den Aufbau ihres Geschäfts betreiben.