Cloud-DiensteAuf den Schultern von Giganten

Viele kleine Internetfirmen sind abhängig von großen Onlinekonzernen. Das ist gefährlich – auch für uns Kunden. von Jens Blochhouse und Sven Stillich

Gewitterstürme wie der im vergangenen Sommer sind schon oft über die amerikanische Ostküste hinweggefegt. Winde mit Geschwindigkeiten von bis zu 140 Kilometern pro Stunde hatten Bäume entwurzelt, Dächer abgedeckt und Strommasten umgeknickt. Doch diesmal kam es noch schlimmer: Nicht nur Hunderttausende Anwohner sollten unter den Sturmfolgen leiden, sondern auch Millionen Menschen in Tausenden Kilometern Entfernung – an der Westküste der USA, in Europa, in Asien.

Als der Strom in Hunderttausenden Haushalten im Bundesstaat Virginia ausfiel, gingen auch in einem gigantischen Rechenzentrum im Städtchen Ashburn die Lichter aus. Zwei Notstromaggregate, eigentlich nur für solche Notfälle angeschafft, sprangen nicht an. Und so verschwanden plötzlich unzählige Onlinedienste im digitalen Nirwana. Für viele der 30 Millionen Kunden der Internet-Videothek Netflix blieben die Bildschirme schwarz. Die Schnappschuss-Seite Instagram war unerreichbar. Und auch die Seite des Sozialen Netzwerks Pinterest zeigte sich plötzlich ganz unsozial – es herrschte gähnende Leere.

Anzeige

Wie ist es möglich, dass einige der beliebtesten Seiten im Netz auf einmal verschwinden? Wie verletzlich ist das moderne Internet? Hatte das amerikanische Militär es nicht einst so entworfen, dass es sogar einen Atombombenschlag der Sowjets überstehen sollte – und nun legen Blitz und Donner eine Website nach der anderen lahm?

ZEIT Wissen 2/2013
ZEIT Wissen 2/2013

Dieser Text stammt aus dem aktuellen ZEIT Wissen Magazin, das am Kiosk erhältlich ist. Klicken Sie auf das Bild, um auf die Seite des Magazins zu gelangen

Die Antwort ist einfach: Die alte Regel der Militärs, wichtige Ressourcen so weit wie möglich über das Netz zu verteilen, um die Schäden durch Ausfälle zu minimieren, wird längst nicht mehr so streng befolgt wie noch in den Anfangsjahren des Internets. Heute ballen sich an einigen wenigen Orten ungeheure Datenmassen – wie eben in dem Rechenzentrum im Norden Virginias. Der klotzige Bau gehört dem Internetkonzern Amazon, der vor allem als Onlinekaufhaus bekannt ist. Nur wenige wissen, dass das Unternehmen auch Computer-, Speicher- und Datenbankkapazitäten an die halbe Internetbranche vermietet. Ein Milliardengeschäft, das Amazon-Chef Jeff Bezos in den Sinn kam, als er merkte, dass seine Rechner nicht ausgelastet waren. Warum also nicht mit den freien Kapazitäten Geld verdienen?

Natürlich ist Amazon längst nicht mehr allein, inzwischen bieten auch andere Internetgrößen wie Microsoft, IBM oder Google Speicherplatz und Rechenkapazitäten an. Und natürlich werben sie alle mit ausgereiften Sicherheitssystemen, die Daten vor Ausfällen und Diebstahl schützen sollen: Kühlungen, Notstromaggregate, Alarmanlagen und Wachpersonal inklusive. Doch eine hundertprozentige Sicherheit gibt es nicht, und so kommen Ausfälle wie im Sommer oft vor. Das Amazon-Rechenzentrum etwa wurde danach bereits zweimal wieder von Ausfällen heimgesucht, zuletzt an Heiligabend – trotz aller Beteuerungen des Konzerns, die Zuverlässigkeit seiner Leihrechner sei höchste Priorität.

Die schlimmsten Cloud-Ausfälle 2012

1 Amazon Web Services wurde im Juni, im Oktober und im Dezember von Problemen heimgesucht. Geht beim Cloud-Branchenführer etwas schief, leidet die halbe Internetbranche.

2 Der Supersturm Sandy legte im Oktober Dutzende Rechenzentren an der US-Ostküste lahm, vor allem im Bundesstaat New York. Betroffen waren etwa die Onlinepostille Huffington Post sowie Regierungsbehörden.

3 Im Juli brannte ein Rechenzentrum im kanadischen Calgary. Das legte das Rechnersystem der Stadt lahm – Hunderte Operationen in einem lokalen Krankenhaus mussten verschoben werden.

4 Gleich zweimal fiel im Juni und Juli der Strom bei Salesforce.com aus. Die Silicon-Valley-Firma verwaltet Kundendaten für Delta Airlines, Bayer und das Rote Kreuz.

5 Ende Februar war Windows Azure, der Cloud-Service des Softwaregiganten, acht Stunden lang für die Kunden nicht erreichbar. Ein Programmierer hatte das Schaltjahr vergessen – das System stürzte ab.

Dennoch verlassen sich inzwischen mehrere Hunderttausend Unternehmen allein auf Amazon, darunter Konzerne wie Shell, Pfizer oder Newsweek, aber auch Institutionen wie die Nasa. Doch vor allem machen sich Start-ups abhängig von den Giganten. Sie verlagern Webseiten, Datenbanken oder E-Mail-Systeme in die sogenannte Cloud – so nennen Computerexperten die riesigen Rechenzentren, die über das Internet erreichbar sind und deren Speicherplatz so endlos erscheint wie ein Wolkenhimmel.

Warum aber gehen die Firmen das Risiko ein, sich nur auf einen, womöglich anfälligen Dienstleister zu verlassen? Ein Grund ist ein Paradigmenwechsel, der vom kalifornischen Silicon Valley ausgegangen ist. Dort wird seit einigen Jahren die Philosophie des Lean Start-ups propagiert – des schlanken Unternehmens. Eines der Dogmen: Anstatt direkt viel Geld für eigene Server und Computerexperten auszugeben, sollen Gründer erst einmal Computerkapazitäten billig anmieten und damit den Aufbau ihres Geschäfts betreiben.

Leserkommentare
  1. "Nicht nur Unwetter oder technisches Versagen, auch knallharte Unternehmensinteressen können dann zur Bedrohung werden."

    Ich würde mal meinen, dass "knallharte Unternehmensinteressen" die hundertmal größere Gefahr sind. Wir brauchen heute so dringend wie nie Rahmenbedingungen, die Monopole verhindern und die Fairness im Wettbewerb erhalten. Dazu braucht es unabhängige Politiker, die sich auch über nationale Grenzen hinweg verständigen.

    Eine zwangsweise Aufteilung von Firmen, wie sie vor Jahren mal für Microsoft diskutiert wurde, darf kein Tabu sein. Im Gegenteil: Lieber rechtzeitig und rigoros aufteilen, statt warten, bis eine Organisation zu mächtig wird. Die große Krux dabei ist leider die Handlungs- und Entscheidungs-Schwäche der Politik auf interenationaler Ebene.

    Aber auch der Einzelne mit seiner Einflußnahme durch bewußte Konsumentscheidung ist wichtig. Nachdem ich unlängst sehr negative Dinge über den Umgang von Amazon mit seinem Beschäftigten gelesen habe, werde ich die nächsten Jahre werder etwas via Amazon bestellen, noch Online-Dienste von Amazon nutzen.

    2 Leserempfehlungen
  2. Und dafür hat es gleich zwei Autoren gebraucht, so einen Schwachsinn zu verfassen? Man hat ohnehin schon das Gefühl, dass überwiegend Laien die Möglichkeit gegeben wird, sich in den Massenmedien zu profilieren. Das hier ist wirklich eine neue Stufe der Hexenverbrennung.

    Holt eure Besen raus!

    2 Leserempfehlungen
  3. 3. Schade

    dass sich die Autoren nicht die Mühe gemacht haben, sich die SLA von Amazon genauer anzuschauen. Dann hätten Sie nämlich gemerkt, dass die Startups mit Ihrer Konfiguration einen Fehler gemacht haben (nur in einer Availability Zone präsent) und nicht Amazon. Das heißt natürlich nicht, dass man nicht von Amazon abhängig ist, aber das Beispiel war leider falsch gewählt.

    3 Leserempfehlungen
    Reaktionen auf diesen Kommentar anzeigen
    • sspies
    • 15. März 2013 12:47 Uhr

    Die AWS SLAs beziehen sich auf die Verfügbarkeit der gesamten Region:

    “Annual Uptime Percentage” is calculated by subtracting from 100% the percentage of 5 minute periods during the Service Year in which Amazon EC2 was in the state of “Region Unavailable.”

    Eine Region ist laut Amazon nicht verfügbar, wenn alle Availability Zones ausgefallen sind.

    Bei den im Artikel genannten Ausfällen handelt es sich um Events, bei denen genau das passiert ist. Bei dem Event Ende 2012 in der Region us-east-1 in Ashburn, VA gab es eine Unverfügbarkeit der gesamten Zone von 11 Stunden. Effektiv wurde damit die SLA nicht eingehalten.

    Die Startups hätten sich natürlich darauf auch vorbereiten können, aber nicht mit Multi-AZ-Setups.Es hätte dann schon ein Multi-Region-Setup sein müssen...

    • sspies
    • 15. März 2013 12:47 Uhr

    Die AWS SLAs beziehen sich auf die Verfügbarkeit der gesamten Region:

    “Annual Uptime Percentage” is calculated by subtracting from 100% the percentage of 5 minute periods during the Service Year in which Amazon EC2 was in the state of “Region Unavailable.”

    Eine Region ist laut Amazon nicht verfügbar, wenn alle Availability Zones ausgefallen sind.

    Bei den im Artikel genannten Ausfällen handelt es sich um Events, bei denen genau das passiert ist. Bei dem Event Ende 2012 in der Region us-east-1 in Ashburn, VA gab es eine Unverfügbarkeit der gesamten Zone von 11 Stunden. Effektiv wurde damit die SLA nicht eingehalten.

    Die Startups hätten sich natürlich darauf auch vorbereiten können, aber nicht mit Multi-AZ-Setups.Es hätte dann schon ein Multi-Region-Setup sein müssen...

    2 Leserempfehlungen
    Antwort auf "Schade"
    • sspies
    • 15. März 2013 13:29 Uhr

    Ich finde, der Artikel beschreibt ein Problem, das wirklich existiert. Dabei ist es egal, um welchen Cloud-Anbieter es geht.

    Es sieht fast so aus, als wären die Management-Prozesse der Cloud-Anbieter so komplex, dass sie per Software nicht zuverlässig kontrollierbar sind. Man kann also soviel Hardware-Redundanz schaffen wie man möchte (Stichwort: Multi-AZ-Setup), wenn die Management-Software im Fehlerfall nicht zuverlässig funktioniert (Stichwort: Elastic Block Storage Probleme) fällt die Infrastruktur aus. Man kann diese Fehler nur mit zusätzlicher Software-Redundanz ausgleichen, d.h. unterschiedliche Cloud-Anbieter gleichzeitig benutzen. Unterschiedliche Cloud-Anbieter lassen sich auch mit SaaS-Diensten wie RightScale oder scalr managen, die sind aber teurer und für Startups häufig nicht praktikabel.

    Selbst wenn man die Ressourcen für ein solches Setup hat, dann existiert weiterhin ein bedeutendes Problem: Die Eigenschaften des Domain Name Systems. Es wird z.Zt. als Best Practice für die Umschaltung von einer Cloud auf eine andere verwendet. Das funktioniert nur dann mit geringer Downtime, wenn der sog. TTL-Wert niedrig gewählt wird. In der Praxis scheitert es aber daran, dass ISPs diesen Wert im eigenen Netzwerk modifizieren und DNS-Server mit niedrigen TTL-Werten schlechter skalieren.

    Fazit: Es gibt z.Zt. keine Möglichkeit mit Hilfe öffentlicher Cloud-Anbieter eine hochverfügbare Applikation zu hosten.

    Eine Leserempfehlung
    • deDude
    • 15. März 2013 13:30 Uhr

    "Das Beispiel verdeutlicht ein grundlegendes Missverständnis im modernen Internet. Viele gehen selbstverständlich davon aus, dass bestimmte Dienste für immer umsonst vorhanden sein werden."

    Ja, darin steckt aber noch ein weiteres Missverständnis. Viele, nennen wir sie mal "Internetunternehmen" glauben, alles was sie heute kostenlos anbieten könnten sie morgen monetarisieren. Für manche Dienste mag das zutreffen, bei den meisten Diensten aber, egal welcher Größenordnung greift dann das Prinzip des Wettbewerbs und vor allem das Prinzip "Don't fuck with the customer" - soll heißen: Solange man kein Monopol hält ist das Monetarisieren von Internetdiensten alles andere als leicht. Sie sagen selbst, neben Amazon bauen auch andere große IT-Konzerne ihre Cloudlösungen aus, glauben sie also wirklich das Amazon, Google oder Microsoft sich gegenseitig jemals eine handbreit Raum gönnen werden?

    Der Wettbewerb dort ist, so glaube ich, härter als so manch einer denkt.

    Eine Leserempfehlung
  4. Ich liebe Amazon und dabei bleibts.

    via ZEIT ONLINE plus App

    Eine Leserempfehlung
    • bvdl
    • 17. März 2013 9:51 Uhr

    Das geschilderte Problem ist sicher nicht irrelevant, - wenn man nicht wuesste, dass der Artikel mal wieder aus der political correctness gegen Amazon entstanden ist. Da ja Amazon durch unsinnige Berichterstattung in den Focus geraten war, gibt es jetzt zukuenftig sicher noch mehr alarmistische Artikel, die sich in irgendeiner Art und Weise, - und sei es nur, dass Amazon igrendwie als Name auftaucht, mit Amazon scheinbar befassen. Wahrscheinlich wird bald irgendeine krude politische Gesinnung bemueht, - weil ein Dropbox Nutzer (Dropbox liegt ja auf Amazon S3) rechtsradikal sei. Und damit, seien wir doch mal ehrlich, ist doch Jeff Bezos selbst ein Unterstuetzer der Radikalen, oder??? Noch mal zum Artikel: Was soll denn die Kernaussage sein? Dass man sich bald wieder selbst Server hinstellt? Was fuer ein Bloedsinn.

Bitte melden Sie sich an, um zu kommentieren

Service