Marktschreierisch geht es in der Welt der Personalcomputer (PC) zu. Monat für Monat träten die einschlägigen Magazine „Revolution“, und doch präsentieren sie fast immer die gleichen Konstruktionsprinzipien, Programmiertechniken und, wie öde, die nämlichen Anwendungen: Textverarbeitung, Tabellenkalkukation, Datenfernübertragung, Ton- und Graphikprogramme, Datenbanken, Archivierungssysteme.

Aber woanders, da ist wirklich etwas los.

Die aufregendsten Kämpfe um Hardware-Typen, Programmierung und Marktführerschaft finden in der Arena der Supercomputer statt, also der Rechner am oberen Ende der Leistungsskala. Diese Technik surft auf der zur Zeit dynamischsten Welle der Computerei: der Entwicklung der Mikroprozessoren. Deren Leistungszunahme erlaubt Konstruktionen von Maschinen, die sich zum herkömmlichen Computer in etwa so verhalten wie die Schreibmaschine zum Federhalter.

Eindeutig ist der Trend zu Systemen, in denen viele Prozessoren zusammenwirken, Hunderte, manchmal gar Tausende. Freilich heißt „mehr“ nicht notwendig „besser“. Die Konkurrenz tobt weniger um die höchste Prozessorenzahl als um das beste Architekturkonzept: Wieviel Aufgaben soll der einzelne Prozessor selbständig lösen, wo steht ihm welcher Speicherplatz zur Verfügung, wie wird das Netz der Prozessoren geknüpft, wie werden ihre Aktivitäten koordiniert – tun alle stets das gleiche, oder herrscht hochdifferenzierte Arbeitsteilung?

Nicht jeder Superrechner taugt für jede Aufgabe gleichermaßen. Für eine Vielzahl von Problemen gilt überdies, daß ihre Lösung auf Supercomputern nur mäßig schneller und nicht unbedingt zuverlässiger erreicht wird – die Kosten pro Rechenoperation liegen indes einige hundertmal darüber, hinzu kommt der höhere Programmieraufwand. Oft tut’s auch ein Arbeitsplatzrechner (Workstation) oder ein PC.

Die US-amerikanische National Science Foundation hat daraus vor wenigen Jahren den richtigen strategischen Schluß gezogen: Die vier nationalen Supercomputerzentren, die jeweils über ein Arsenal verschiedenartiger Höchstleistungsrechner verfügen, sollen sich zusammenschließen und jedem Benutzer per Hochgeschwindigkeitsdatennetz einen „Metacomputer“ zur Verfügung stellen. Mit Hilfe seiner Workstation kann er das gesamte Arsenal an Superrechnern, graphisch orientierten Workstations und hochgezüchteten PCs im „Nationalen Maschinenraum“ als Ressource nutzen – natürlich nicht nach Belieben, sondern nach beantragter Zuteilung.

Derartiges heterogenous Computing wird in hohem Maße das Tempo zukünftiger wissenschaftlicher und technischer Entwicklung bestimmen. Wer neue Produkte und Fertigungsprozesse schneller und besser simulieren kann als die Konkurrenz, hat einen enormen Vorteil. All die hübschen Notebooks, Windows-Versionen und CD-ROM-Guckkästen sind, verglichen damit, Pipifax.