Intel : Gefräßige Chips

Mehr als vier Jahrzehnte lang bestimmte der Konzern Intel, wie Computer funktionieren. Jetzt gefährdet ein kleiner Konkurrent erstmals das Monopol.
Intel-Chef Paul Otellini, Archivbild vom September 2009 © Justin Sullivan/Getty Images

Emotionslos trägt Vorstandschef Paul Otellini die jüngsten Geschäftszahlen vor. Es sind gute Zahlen für den amerikanischen Chiphersteller Intel , sensationelle Zahlen sogar. Rekordumsätze. Traumgewinne. Das Quartal war fantastisch, jeder andere Konzernchef wäre spürbar begeistert. Aus Otellinis Mund aber klingt der Satz »Ich bin sehr erfreut«, als hätte man ihn gezwungen, das Telefonbuch von Santa Clara vorzulesen.

Das war Mitte April. Und Intels Chief Executive Officer ahnte wohl schon, dass auf den Erfolg ein Schatten fällt.

Es ist der Schatten einer kleinen Firma aus Cambridge in Großbritannien. Dort liegt das Hauptquartier von Advanced Risc Machines. Das Unternehmen, kurz ARM genannt, entwickelt ebenfalls Computerchips. Und wenige Tage nach Intel präsentierte es ebenfalls gute Zahlen. Sensationelle Zahlen sogar. Rekordumsätze. Traumgewinne. Und so weiter.

Für Intel hätte es kaum schlimmer kommen können. Ausgerechnet die Briten. Zwar ist das Schaltkreisimperium aus dem Silicon Valley um ein Vielfaches größer als sein britischer Gegenspieler. Wenn es aber um Prozessoren für all die neuen Tablets und Smartphones geht, also um die Herzstücke der Technik von morgen, dann ist ARM der Riese. Und Intel der Zwerg. Denn ARM steckt in praktisch allen diesen neuen Geräten. Intel nicht.

Otellini weiß, wie gefährlich das werden kann, er hat die Bibel aller Intel-Manager gelesen: das Buch Only the Paranoid Survive seines Amtsvorgängers und Intel-Mitgründers Andrew Grove. Der schrieb schon in den neunziger Jahren davon, dass in der Geschäftswelt bloß überleben werde, wer überall eine Bedrohung wittere. Wer sich hingegen unangreifbar fühle, habe so gut wie verloren, warnte Grove, denn: »Früher oder später wird sich etwas Grundlegendes ändern.«

Dieser Tag ist heute. Der Chipkrieg hat begonnen, die Front verläuft zwischen Intel und ARM. Zum zweiten Mal bedroht die technologische Entwicklung ein Hightechimperium: erst Microsoft, jetzt Intel.

Bei Prozessoren hat Intel eine ähnliche Bedeutung wie Microsoft bei Betriebssystemen: Beide haben die Standards gesetzt. Beide erkannten bereits vor Jahrzehnten, das Computer über kurz oder lang den Alltag der Menschen prägen würden. So schuf Microsoft Windows, und Intel lieferte die passenden Motoren. Gemeinsam wurden beide zu Monopolisten, die der Welt ihre Vorstellung von Computern aufzwangen und immer wieder den Argwohn staatlicher Wettbewerbshüter auf sich zogen. Dem Erfolg haben die zahlreichen Verfahren nicht geschadet: Täglich werden heute weltweit eine Million Personal Computer verkauft, auf praktisch allen läuft Microsoft Windows, und in mehr als 80 Prozent davon schlägt ein Herz von Intel.

ARM ist wie Google: Gegründet zu einer Zeit, als der Gegner längst übermächtig schien und der Kampf aussichtslos. Von Menschen wie Tudor Brown , die von der Idee getrieben waren, alles Bestehende infrage zu stellen und etwas vollkommen anders zu machen. So erfand Google das neue Betriebssystem Android, das auf vielen Smartphones und Tablets läuft. Und ARM, das aus einer Kooperation der beiden Computerfirmen Apple und Acorn hervorging, erfand neue Chips.

Anders als Intel stellt ARM selbst aber keine Prozessoren her, sondern entwickelt sie bloß. Deswegen hat ARM auch keine Fabriken und deutlich weniger Personal als Intel. Hunderte Firmen wie Nvidia, Qualcomm oder Texas Instruments bauen und verfeinern die ARM-Prozessoren als Lizenznehmer. Gemeinsam haben sie Chiparchitekturen geschaffen, die sehr viel weniger Strom benötigen als die von Intel.

Solange Computer noch Stromkabel hatten und dauerhaft an der Steckdose hingen, machte das keinen Unterschied. Aber jetzt ist das Kabel ab.

Verlagsangebot

Hören Sie DIE ZEIT

Genießen Sie wöchentlich aktuelle ZEIT-Artikel mit ZEIT AUDIO

Hier reinhören

Kommentare

28 Kommentare Seite 1 von 3 Kommentieren

ARM vs. Intel

ARM kann Intel nicht ersetzen - und wird es nicht.
Grund: Die Rechenleistung ist einfach nicht vorhanden und wird auch nie vorhanden sein.

ARM ist für Taschenrechner, Spielzeug, eventuell einfache Industrieanwendungen - Intel (und AMD) sind für richtige Computer.

Wenn man einen "Computer" produktiv nutzen will braucht man nun einmal Rechenleistung - egal ob für Mathematik, CAD oder Photoshop. Und auch Word dürfte auf einem ARM Prozessor eine Qual sein - ja, funktionieren würde es, aber angenehm wäre es nicht. (Ich würde auch nie ein netbokk nutzen - da ist mein Vorgängernotebook von vor 6 Jahren leistungsstärker.)

Mit dem Energieverbrauch ist das auch so eine Sache - wenn man sich die Ultraportables anschaut (nein, kein netbooks) dann hat sich bei diesen die Akkulaufzeit kontinuierlich erhöht - weil die Ultra Low Voltage Prozessoren immer Energiesparender wurden aber gleichzeitig immer leistungsstärker (dazu die anderen Komponenten und der Akku) - genau dass was man mobil braucht - Energiesparende Rechenleistung.
Und auch schnellere Prozessoren (2,5GHz T9300) können über Intel Speedstep Energiesparend betrieben werden - so schaffte ein 3 Jahre altes Sony Vaio SZ über 5 Stunden Akkubetrieb mit einem neuen Akku.

Und da kommt ARM nicht mit.

Projekt Denver

Sagt ihnen das Projekt Denver etwas?

http://blogs.nvidia.com/2...

Nvidia steht unter Druck, nachdem AMD/ATI und Intel Prozessoren und Grafikchips auf einem Chip kombinieren. Deshalb musste Nvidia wohl oder über seinen eigenen Prozessor entwickeln. Wegen Patentproblemem mit Intel konnte Nvidia keinen x86 kompatiblen Chip herstellen (der Artikel deutet das an), deshalb setzt Nvidia jetzt auf ARM. Und dieser neue Prozessor wird wesentlich leistungsstärker sein, als die ARM-Prozessoren, die sie bis jetzt kennen. Also fällen sie lieber keine vorschnellen Urteile.

x86...

Das ist wohl die entscheidenste Änderung, die die neuen Geräte mit sich brachten. Ihre Software ist meist nicht auch eine Prozessorarchitektur festgelegt, wie das Windows (weitestgehend) war. Gleichzeitig ist der Bedarf an Rechenleistung auch nicht so enorm. Video und Grafik können von speziellen Prozesorkernen erledigt werden, mit denen sich NVDIA gut auskennt. Das, was es darüber hinaus bei den meisten Anwendung zu rechnen gibt, ist oft auch nicht mehr, als es vor 10 Jahren war.
Die Chance, dass da alte, marktbeherrschende Stellungen zerbrechen, ist definitiv da.

.........

nvidia hat nur eine einfache ARM Fertigungslizenz und darf nicht einfach Erweiterungen am ARM-Kern durchführen. Es ist ein Wunschdenken zu glauben, dass nvidias von heute auf morgen einen Konkurrenzfähiges Produkt auf die Beine stellt. Das beste bsp. ist Intel selbst, als es beim versuch gescheitert ist eine Konkurrenzfähige Diskrete Grafikkarte zu einwickeln, obwohl Intel mehr Geld in das Projekt reingesteckt hat, als nvidia wert ist.

Richtig,

genauso sind aber auch die x86-Prozessoren in der Energieeffizienz hoffnungslos unterlegen., und es wird Jahre dauern, bis sie die Effizienz von ARM-Prozessoren erreichen. Dazu kommt das Problem, die Software die für ARM geschrieben wurde (Apple iOS, Google Android, etc), nicht auf x86-CPUs läuft.

Bis jetzt haben beide Prozessoren ihren eigenen Markt, aber in Zukunft werden sie sich aneinander annähern und die Märkte werden sich überschneiden. Genauso wie es im Artikel steht.

Software für x86 läuft nicht auf ARM

Das stimmt nur bedingt. Natürlich laufen auch Java- und .NET-Anwendungen, die auf x86 entwickelt wurden, auch prinzipiell auf der ARM-Plattform. Darüberhinaus können auch sauber geschriebene Programme in C und C++ sowohl für x86 als auch ARM ohne großen Aufwand übersetzt werden.

Das ganze erfordert nur einen geeigneten Unterbau, der die Hardware soweit abstrahiert, dass sie der Anwendung egal ist.

"Good enough"

Zitat:
"Rechenkraft allein ist nicht mehr kriegsentscheidend, und das ändert alles. Vor so etwas hatte Andrew Grove seine Nachfolger gewarnt."

Auch sie haben nicht verstanden, das ein ARM erstens kein Spielzeug ist, und zweitens fuer Millionen von Privatnutzern mehr als ausreichend ist.

Nerds und Poweruser sind nur ein kleiner Marktanteil unter allen Computernutzern. Die Mehrheit wird in Zukunft kleine Computer wie Smartphones und Tablets benutzen.

Niemand bestreitet das ein Intel schneller ist als ein ARM, aber ein ARM ist eben fuer die meisten Normalbuerger absolut ausreichend. Und erheblich sparsamer (nein, Intel hat nichts, was auch nur annaehernd so wenig Strom braucht wie ein ARM).

Intel wird so schnell nicht untergehen, aber ihr Marktanteil wird schrumpfen. Darauf muessen sie sich einstellen.

ARM Prozessoren:

Und ARM hat nichts was annähernd schnell genug ist um für den normalen Gebrauch nützlich zu sein.

Tablets... der Modemüll schlechthin - versuche sie lange auf einem Touchscreen zu tippen, unmöglich.
-> Die Notebook Tablets nutzen wiederum AMD und Intel.

Und auch wenn ich etwas mobiles leichtes brauche dann nehme ich, wie im 1. Kommentar angemerkt, lieber einen Ultra Low Voltage CPU - der braucht wenig Strom, reicht für den regulären Gebrauch aber völlig aus.

Es bringt nichts Geräte zu haben die eine Funktion ausführen können (a la ARM) - das wunderbare am tragbaren Computer ist die Möglichkeit verschiedenen Tätigkeiten in verschiedenen Programmen und Angeboten nachzugehen - Word, Excel, Youtube, Nachrichten im Web lesen (JavaScript kann auch viel Rechenleistung brauchen wenn es etwas viel ist) und dann mal Photoshop oder Maple - oder eine Virtual Machine.

Versuchen sie Word auf einem Atom Gerät zu nutzen - das wird sie schon in den Wahnsinn treiben, wie soll das auf ARM gehen?
Oder Exel...

Schön,

dass ihr auch mal über solche Themen berichtet, aber warum so reißerisch? Übrigens hat Intel selbst bis vor Kurzem die leistungsfähigsten ARM-Prozessoren hergestellt, nachdem sie den StrongArm-Prozessor von DEC übernommen hatten. Das fehlte irgendwie in der Story.

Und zwischen den beiden Aussagen »Intel-Chips werden kleiner und effizienter, ARM-Prozessoren leistungsstärker und energiehungriger« und »Wir können die Energieeffizienz weiter erhöhen und gleichzeitig die Rechenleistung verbessern« gibt es keinen Widerspruch. Es kann durchaus beides zutreffen.

Einseitig.

Es gibt mittlerweile einen hohen Anteil von Usern, die selbst an ihrem PC basteln. Nehmen wir noch Highendprogramme dazu, welche in vielen Firmen zu Berechnungen genutzt werden, von den Millionen Gamern abgesehen, ist die Leistung nicht entscheidend.

Klar können wir auch eine Formel 1 mit Elektromotoren veranstalten, interessiert halt keinen mehr.