Im Herbst 1882 schickten Oskar von Miller und Marcel Depréz zum ersten Mal elektrischen Strom über eine fast 60 Kilometer lange Telegrafenleitung von Miesbach nach München. Erst diese Idee ermöglichte moderne Elektrizitätsnetze mit Kraftwerken, Überlandleitungen und Steckdosen. Und sie beendete das Zeitalter der Generatoren, die damals noch in den Kellern vieler Fabriken standen und allenfalls ein paar Glühbirnen und Maschinen in ihrer Nähe betrieben.

Brunnen in den Hinterhöfen wurden überflüssig, nachdem im 19. Jahrhundert weitverzweigte Rohrnetze in Städten wie London, Hamburg und Wien entstanden waren und das Wasser zuverlässig in die Häuser strömte.

Zweimal beendete eine neue Netzstruktur eine Ära der Selbstversorger: weil die Menschen Wasser wollten, aber keinen Brunnen. Weil sie Strom wollten, aber keinen Generator im Keller.

Demnächst könnte sich die Geschichte wiederholen – in der Welt der Computer. Denn längst ist aus der rudimentären Leitung, über die Wissenschaftler der Universität in Los Angeles 1969 zum ersten Mal Daten ins Hunderte Kilometer entfernte Stanford Research Institute schickten, ein weitverzweigtes Netz geworden. Die Zahl der schnellen, sogenannten Breitbandanschlüsse ist in den vergangenen fünf Jahren auf 350 Millionen gestiegen und hat sich somit mehr als verdreifacht. Und das Wachstum geht weiter.

Viele Computernutzer schreiben bloß Briefe und surfen im Internet

An diesen Anschlüssen hängen heute meist leistungsstarke Personal Computer. Insgesamt rechnen weltweit rund eine Milliarde dieser Maschinen vor sich hin. Ob sie Textverarbeitungsprogramme ausführen oder Tabellen erstellen, nach Viren scannen, Fotos, Videos oder Musikstücke verwalten – letztlich verarbeiten sie oft bloß digitale Informationen, die auf ihren Festplatten gespeichert sind.

Noch werden jedes Jahr mehr Personal Computer verkauft. Doch es ist durchaus wahrscheinlich, dass der PC bald das Schicksal von Brunnen und Generator teilt. Jetzt, da das Netz steht, muss eine alte Frage neu gestellt werden: Wer braucht eigentlich noch einen kompletten Rechner, wenn er doch nur Rechenleistung benötigt?

»Die Ära des Personal Computers geht vorüber«, glaubt Rüdiger Spies von der auf Informationstechnik spezialisierten Beratungsfirma IDC aus München. Gut ein Vierteljahrhundert, nachdem IBM Anfang der Achtziger mit dem PC 5150 die erste graue Rechenkiste für jedermann auf den Markt brachte, steht die Zukunft eines Alltagsgegenstandes infrage. Ein radikaler Wandel deutet sich an, wie ihn die digitale Branche schon einmal erlebte. Erst rechneten wenige – Mainframe genannte und schrankgroße – Apparate vor sich hin, zu denen gehen musste, wer etwas von ihnen wissen wollte. Als die Computer schneller, billiger und vor allem kleiner wurden, eroberten sie die Schreibtische und Aktentaschen. Und jetzt krempelt das Netz die Welt der Hard- und Software erneut um.

Wenn Menschen vor ihrem Computer sitzen, schreiben sie hauptsächlich Briefe – oder surfen im Internet. Dafür jedoch sind hochgerüstete Schreibtischmonster mit potenten Grafikkarten und riesigen Festplatten eigentlich überdimensioniert. Kleinere, leichtere und billigere Geräte genügen. Denn beliebte Internetseiten von Google, Amazon, Yahoo, eBay und Co belasten den heimischen PC sowieso nicht. Ihre Software läuft im Innern des Netzes: auf den Server genannten Großcomputern in den Rechenzentren der Betreiber von Suchmaschinen, Onlineshops, Reisebüros und Sozialen Netzwerken.

Rechenzentren sind für das Informationszeitalter, was Talsperren und Kraftwerke für Wasser und Strom sind: Speicher und Quelle. Bisweilen sind Rechenzentren so groß wie Lagerhallen. Weltweit gibt es derzeit etwa drei Millionen davon. Ihr Siegeszug stellt das gängige Dogma infrage, dass auf jedem Schreibtisch ein Personal Computer mit fest installierter Software stehen muss. Unternehmen wie Google symbolisieren dieses neue Verständnis von vernetzter Informationstechnik und setzen die älteren Konzerne unter Druck, allen voran die beherrschende Firma auf dem Markt für Computersoftware, Microsoft. Dieser Druck entlädt sich derzeit in Übernahmeschlachten wie derjenigen um Yahoo. Microsoft will die Internetfirma kaufen, um den Rückstand zu seinem Konkurrenten Google aufzuholen, der Gratisprogramme mit Onlinewerbung finanziert, statt die Software selbst zu verkaufen. Doch bei einigen Firmenkäufen wird es nicht bleiben – zu grundsätzlich sind die bevorstehenden Veränderungen. Das ahnte wohl auch Bill Gates, als er an einem späten Sonntagabend im Oktober 2005 eine E-Mail an den engsten Führungskreis von Microsoft schickte. Darin warnte der Gründer vor einer kommenden Welle, die »sehr zerstörerisch« sein werde.

Jetzt ist sie da.

Das Internet wäre ohne Arbeitsteilung kaum denkbar: Viel Rechenleistung wird schon heute nicht mehr im Gerät des Surfers erbracht, sondern an unbekannten, oftmals fernen und zudem auch noch wechselnden Orten. Wer eine Frage an eine Suchmaschine schickt, kann die Antwort mal aus Deutschland, mal aus Indien und mal aus den Vereinigten Staaten erhalten – ohne dass er es merkt. Der Standort der Rechenzentren interessiert die meisten Nutzer ohnehin bestenfalls so viel wie die Frage, von welchem Windrad der Ökostrom stammt. Solange gleichbleibende Qualität zu jeder Zeit an jedem Ort verfügbar ist, können also auch Informationen so gut wie überall auf dem Planeten verarbeitet werden. Oder, etwas poetischer formuliert: somewhere in the clouds. Irgendwo in den Wolken.

Die Internetgemeinde hat zwar immer wieder ihre frenetisch bejubelten Modewörter, und »Cloud Computing« ist eines davon. Doch es lässt sich schon heute mit Inhalt füllen – und erzeugt eine Menge Nervosität.

Amazon verkauft Bücher – und seit Kurzem auch Rechenleistung

Um das Phänomen erforschen zu lassen, hat die Europäische Union im Februar 17 Millionen Euro spendiert. Und mit Amazon hat inzwischen sogar ein Pionier des Internets begonnen, sein Geschäftsmodell auf die große Rechenwolke auszurichten. Das Unternehmen ist seit einiger Zeit dabei, sich vom Versandhändler zum Dienstleister für Rechenjobs zu wandeln. Rund 370000 Kunden hat Amazon damit bereits gewonnen.

Es ist nicht das erste Mal, dass Jeff Bezos seine Firma umbaut. Schnell machte er aus dem einstigen Buchhändler ein ganzes Warenhaus, das vom Fön bis zum Plüschtier praktisch alles verkauft. Dann öffnete er es professionellen Händlern, die ihre Ware unter dem Dach von Amazon, aber auf eigene Rechnung anbieten. Und seit Kurzem bedient Bezos eine dritte, schnell wachsende Kundengruppe, die vor allem Rechenleistung verlangt. Diese hat Amazon reichlich zu bieten. Die Rechenzentren der Firma nehmen Bestellungen an, vergleichen Preise und erstellen Nutzerprofile. Sie sind eine gigantische Ressource, die aber längst nicht immer voll ausgelastet ist. Warum also sollte man sie nicht mit anderen teilen?

Moderne Server, wie sie zu Hunderten in den Rechenzentren stehen, gibt es teilweise schon ab etwa 1000 Euro. Plus Installation, plus Wartung, plus jede Menge Nerven. Bei Amazon kann man einen fertigen Server für sich rechnen lassen – eine Stunde für nicht mal sieben Cent. Und wer nur große Datenmengen archivieren will, kann beliebig viel Platz auf den riesigen Amazon-Festplatten mieten, für elf Cent monatlich pro Gigabyte. Bezahlt wird nur, was tatsächlich genutzt wird. Ohne Grundgebühren, ohne Abo. Vor vier Jahren sei ihm klar geworden, »dass dieses Modell das Potenzial hat, ein bedeutendes Geschäftsfeld zu werden«, sagte Bezos kürzlich am Rande einer Konferenz in Kalifornien. Wenig später wurde aus der Idee ein Angebot – und inzwischen beansprucht der Wolkendienst mehr von Amazons Datenverkehr als der globale Versandhandel.

Zu den neuen Kunden gehören kleine Entwicklerfirmen wie Animoto aus New York, deren Software aus Bildern und Liedern seiner Kunden selbstständig Musikvideos erstellt – und die zumindest teilweise auf den Rechnern von Amazon läuft. Auch die ehrwürdige New York Times lieh sich schon Rechenpower des Onlinehändlers aus Seattle, um Artikel aus den Jahren 1851 bis 1922 für das Internet digital aufzubereiten.

Noch wird die Idee, sich digitale Ressourcen zu teilen, vor allem von Unternehmen genutzt. Ähnliche Angebote für Privatleute gibt es zwar auch. Man nimmt sie aber nicht als Teil des Cloud Computings wahr: Fotos, Videos, E-Mails – Millionen Menschen speichern sie schon im Netz, bei Flickr, YouTube, Hotmail. Sie nutzen MobileMe von Apple oder einen der Google-Dienste. Die Suchmaschinenfirma bietet einen E-Mail-Dienst ohne E-Mail-Programm an, den Routenplaner namens Maps, für den man keine eigene Kartensoftware braucht. Und sogar eine Textverarbeitung, die man nicht mehr – wie das populäre Microsoft Word – auf einem Computer installieren muss, um einen Brief schreiben zu können. Adobes Textverarbeitung namens Buzzword funktioniert ganz ähnlich. Und letztlich basieren auch Soziale Netzwerke wie das globale Freundschafts-Kaffeekränzchen Facebook auf dem Cloud-Gedanken. Einen voll ausgerüsteten Personal Computer braucht dafür niemand mehr.

»Jetzt wird am ganz, ganz großen Software-Rad gedreht«

Wie schnell die Menschen eine noch vor wenigen Jahren etablierte Alltagstechnik vergessen, zeigt der Anrufbeantworter. Vor gar nicht mal so langer Zeit hing an fast jedem heimischen Telefon noch eine klobige Kiste, in der eine Leerkassette vor sich hin spulte. Dann kam die digitale Variante, die teilweise sogar ins Telefon eingebaut wurde. Es war jedoch stets bloß die zweitbeste Lösung für alle, die nur an einer Nachricht, nicht aber an einer Maschine zur Speicherung von Nachrichten interessiert waren. Die Folge: »Die Geräte lösten sich im Netzwerk der Wolke auf«, schreibt der amerikanische Autor Nicholas Carr. Wer heute vom Handy oder von vielen Festnetzanschlüssen aus seine Mitteilungen abhört, telefoniert längst mit einem virtuellen Anrufbeantworter, irgendwo in einem fernen Rechenzentrum.

Die Umsetzung der Wolken-Idee hängt entscheidend davon ab, wie schnell große Mengen an Daten hin- und hergeschickt werden können. Einer Studie des Netzwerkausrüsters Cisco zufolge wird sich der globale Datenverkehr bis 2012 vervierfachen. Und ebenso wie Wasserwerke und Wasserhähne zwecklos sind, wenn die Leitungen zwischen ihnen zu klein sind oder nicht gewartet werden, muss auch die Datenautobahn noch weiter ausgebaut werden. In Japan etwa ist das Netz mitunter bis zu zehnmal so schnell wie in Deutschland – gleichzeitig kostet Surfen dort in der günstigsten Variante teilweise nur ein Zehntel der hiesigen Summe.

Unternehmen wie Sun, HP und IBM, die Server für Rechenzentren herstellen, propagieren den technischen Wandel. Dennoch dürfte es einige Zeit dauern, bis die Datenwolke dem PC den Garaus macht. »Cloud Computing stellt einen weiteren Evolutionsschritt in der Informationstechnik dar. Dennoch sind die dahinterliegenden technischen Fragestellungen äußerst komplex«, sagt Heinz-Hubert Weusthof, Bereichsleiter im deutschen Entwicklungszentrum von IBM. »Der vollständige Durchbruch wird bestimmt noch einige Jahre auf sich warten lassen.« Langfristig, so ist er überzeugt, werde die Wolke die Beziehung des Menschen zum Computer allerdings so stark verändern wie einst jene zum Automobil. Als es vor 120 Jahren erfunden wurde, konnten es sich nur wenige leisten. Dann war es lange Zeit so unzuverlässig, dass man es ständig reparieren musste. »In den sechziger Jahren mussten Sie noch etwas von Technik verstehen, um ein Auto zu bedienen«, sagt Weusthof. »Heute müssen Sie nur noch die Verkehrsregeln beherrschen, um fahren zu können.«

Die Parallele zum Personal Computer ist augenfällig. Anfangs ein aufwendiges Hobby für Technikfreaks mit einer überschaubaren Zahl an Sozialkontakten, haben PCs das Arbeits- und Privatleben erobert. Geblieben ist der Aufwand, den sie verursachen: Programme müssen installiert, Virenscanner ständig aktualisiert, private Drahtlosnetzwerke eingerichtet und gesichert werden. Jeder weiß, wie viel Zeit das kostet und dass Plug and play vor allem Wunschdenken ist. Kauft man einen neuen Rechner, geht alles von vorn los – wie sonst bitte kommen all die Fotos, Briefe und Videodateien auf das neue Gerät? Adressdatenbanken müssen permanent synchronisiert werden, damit die jeweils in Desktop, Laptop und Handy gespeicherten Kontaktlisten stets auf dem gleichen Stand sind. Welch eine Zeitverschwendung! Die ganze Anstrengung wäre überflüssig, verlagerte man sämtliche Speicher- und Rechenarbeit gleich an einen zentralen Ort, wo sie bei Bedarf lediglich abgerufen wird. Wie einen einzigen gigantischen Computer kann man sich die Rechenwolke vorstellen.

»Statt Personal Computer werden kleinere Geräte künftig das Wachstum auf dem Massenmarkt vorantreiben«, sagt Timothy Bresnahan, Ökonomieprofessor an der Stanford University in Kalifornien, »vom Musikspieler bis zum Handy.« Multimedia-Handys wie das iPhone von Apple beweisen, dass sich auch ohne große Rechenmaschinen ganz passabel im Internet surfen lässt. Wer hauptsächlich E-Mails lesen, den Wetterbericht abrufen oder die jüngsten Schlagzeilen überfliegen will, ist mit dem Surfzwerg bestens bedient. Und wenn das iPhone den ersten Sargnagel für den Personal Computer darstellt, wird der EeePC ein zweiter. Zwar erinnert das Gerät optisch noch an einen etwas zu klein geratenen gewöhnlichen Laptop. Aber Vieles, was einen Personal Computer bislang ausmachte, fehlt ihm: Festplatte, DVD-Laufwerk und ein hoher Preis zum Beispiel. Der EeePC kostet in der Basisversion knapp 300 Euro, ist auf billig getrimmt, eher ein Surfbrett als ein Computer, und kaum noch in der Lage, umfangreiche Programme zu verarbeiten oder riesige Datenberge zu speichern. Die Kunden können darauf aber offenbar verzichten: Bis Ende dieses Jahres will der taiwanesische Hersteller Asus fünf Millionen EeePCs verkaufen. Detaillierte Absatzzahlen verrät Asus zwar nicht, aber aus Angst, einen Trend zu verpassen, haben die meisten anderen Laptop-Produzenten ebenfalls abgespeckte Billigmodelle angekündigt.

So ergeht es typischerweise einem reifen Produkt, das seinen Höhepunkt überschritten hat. Technisch unterscheiden sich die heutigen Modelle oft nur noch minimal, der Preis gerät zum wichtigsten Differenzierungsmerkmal. Manche Analysten glauben, dass IBM auch deswegen vor ein paar Jahren seine PC-Sparte verkaufte und sich heute stark auf Cloud Computing konzentriert. Kommentieren möchte IBM-Manager Weusthof das zwar nicht, wie er sagt, »aber Sie können sicher sein, dass hinter solchen Entscheidungen immer auch strategische Überlegungen stehen«.

Hardwarehersteller sind nicht die Einzigen, die vor einer Zeitenwende stehen. Auch die großen Softwarefirmen haben erkannt, dass ihnen die Cloud eines Tages die Existenzgrundlage entziehen könnte. Denn noch folgt ihr Geschäftsmodell der Idee: ein Rechner, ein Programm. »Jetzt wird am ganz, ganz großen Softwarerad gedreht«, sagt der Berater Spies. »Es geht darum, wie Software künftig erworben, verteilt und refinanziert wird.«

Kurz bevor Bill Gates in den Ruhestand wechselte, mahnte der Microsoft-Gründer noch einmal, die Wolke, ihre technischen und ökonomischen Auswirkungen, nicht zu unterschätzen. »Noch vor zehn Jahren wäre es lächerlich gewesen, darüber zu reden«, sagte er im Frühjahr auf einer Konferenz in Seattle, »die Bandbreiten und Speichermöglichkeiten waren damals einfach nicht vorhanden.«

Heute aber sind sie es, und Microsoft wird gleich von zwei Seiten angegriffen: bei Betriebssystemen und Bürosoftware. Mit Windows und Office (wozu auch die Textverarbeitung Word gehört) ist Microsoft in beiden Bereichen Marktführer. Der Verkauf von Lizenzen für diese Programme sorgt bei Microsoft für rund zwei Drittel des Umsatzes – und den kompletten Gewinn.

Neue Internetmaschinen wie das iPhone oder der EeePC laufen jedoch auch ohne Windows. Und sollten sich Angebote wie Googles internetbasierte und für Privatnutzer auch noch kostenlose Textverarbeitung durchsetzen, dürfte es für Microsoft schwer werden, zu begründen, warum man für eine ähnliche Software weiterhin Geld bezahlen und sie dann noch umständlich auf einzelnen Rechnern installieren soll.

Die Kosten für den Internetzugang per Handy sinken

Microsoft testet zurzeit verschiedene Zwischenlösungen: Mal wird die Bürosoftware Office zur Miete über das Internet angeboten. Mal sollen damit erstellte Dokumente nicht mehr ausschließlich auf der heimischen Festplatte, sondern auch in einem der zahlreichen Rechenzentren von Microsoft gespeichert werden – und wären dann von überall auf dem Planeten zugänglich. »Diese Kombination bietet den Kunden mehr Wahlmöglichkeiten«, sagt Tim O’Brien, Direktor für den Bereich Plattformstrategie bei Microsoft. Sie sei flexibler als der herkömmliche Ansatz, aber auch als die Vision der Cloud - Puristen, die ausschließlich auf das Internet setzen. Microsoft glaubt nicht daran, dass der Personal Computer eines Tages verschwindet und mit ihm die Grundlage für das angestammte Geschäftsmodell.

Vielleicht liegt hierin auch der größte Schwachpunkt der Idee des Cloud Computings. Wer auf die Rechenkraft eines Personal Computers verzichtet und folglich sämtliche Programme und Dokumente von seiner heimischen Festplatte ins Internet verlegt, ist ohne Onlineverbindung aufgeschmissen.

Einerseits.

Andererseits beginnen nun auch die Kosten für den mobilen Internetzugang zu sinken. Neue, leistungsfähigere Mobilfunkstandards stehen vor dem Durchbruch und werden es schon in wenigen Jahren gestatten, noch mehr Daten noch schneller durch die Luft zu schicken. Das dürfte Cloud Computing befördern.

Die Welle, über die Bill Gates vor einigen Jahren sprach, hat sich als Wolke entpuppt – doch ihr Zerstörungspotenzial bleibt unverändert. Und wenn die Kunden eines Tages tatsächlich ihre Gewohnheiten ändern sollten, dürfte sich ihre verheerende Wirkung gleich doppelt entfalten: zuerst bei den Programmen. Und dann bei den Computern, auf denen sie laufen.