50 Jahre Ascii : Als Computer lernten, miteinander zu sprechen

Am 17. Juni 1963 wurde der Ascii-Code eingeführt. Ohne ihn wäre das Internet undenkbar. Sein Erfinder ist ein unbesungener Held des Computerzeitalters
"Ascii-Art", eine Kunstform, bei der Bilder am Computer allein aus Satzzeichen und Buchstaben gestaltet werden, gibt es auch in Form von Tattoos. © Jens Ressing / dpa

Zeit seines Lebens kämpfte der amerikanische Ingenieur und Programmierer Bob Bemer darum, als "Vater von Ascii" anerkannt zu werden. Vergeblich: Auch neun Jahre nach seinem Tod ist er nur einer winzigen Fachöffentlichkeit bekannt. Der größte Teil der Weltbevölkerung dürfte nicht einmal wissen, was Ascii ist.

Dabei hätte ohne den American Standard Code for Information Interchange, kurz Ascii, jahrzehntelang kein Computerdrucker funktioniert. Es wären keine Textverarbeitungsprogramme entstanden, es gäbe keine E-Mail und kein World Wide Web. Am heutigen Montag wird der Ascii-Code 50 Jahre alt.

Bob Bemer ist einer der unbesungenen Helden des Computerzeitalters. Als Angestellter von IBM gehörte Bemer Anfang der sechziger Jahre zu einem Gremium von Computer-Experten, das im Auftrag der American Standards Association (ASA, heute: American National Standards Institute, Ansi) eine gemeinsame Sprache für die Kommunikation unter Rechenmaschinen entwickelte. Zu dieser Zeit gab es mehr als sechzig Methoden, Zahlen und die Buchstaben des Alphabets so in Zahlenkolonnen zu verwandeln, dass die Maschinen sie lesen konnten. Es war ein digitaler Turm zu Babel. Damit Rechner der unterschiedlichen Bauarten miteinander kommunizieren konnten, war ein gemeinsamer Standard notwendig.

Im Mai 1961 entwarf Bemer einen allgemeinen Code für die Darstellung von alphanumerischen Zeichen, der von der American National Standards Association akzeptiert wurde. Ein Team von Ingenieuren entwickelte dann eine endgültige Version von Ascii, die am 17. Juni 1963 verabschiedet wurde.

Zuerst für Fernschreiber

Die Zeichenkodierung bestand aus 128 Zeichen, von denen 95 druckbare Buchstaben, Zahlen und Sonderzeichen wie #, $ ,%, & oder + waren. Der Buchstabe L wurde zum Beispiel in die Zahlenfolge 0100 1100 zerlegt, die von allen Rechnern verstanden werden konnte.

Da Ascii in den USA entwickelt worden war gab es kein é, kein ç und kein ä, da diese Buchstaben im Englischen nicht existieren. Außerdem wurden eine Reihe von nicht druckbaren Steuerzeichen definiert: Zeilenvorschub, Tabulator oder Backspace. Weiterhin gab es sogenannte Protokollzeichen, die dem empfangenden Rechner zum Beispiel signalisierten, dass die Daten-Übertragung beendet war.

Freilich waren die Computer zu dieser Zeit meist wohnzimmergroße Geräte, die noch nicht über ein Netzwerk miteinander verbunden waren. Aber mit dem Fernschreiber hatte das Zeitalter der Onlinekommunikation bereits begonnen. Bei Fernschreibern wurde Ascii darum zuerst als Standard eingesetzt. Die Geräte zerlegten Texte in Ascii-Zahlenreihen, die von einem Terminal zum anderen gesendet wurden, wo sie auf Lochstreifen wieder ausgegeben wurden.

Verlagsangebot

Hören Sie DIE ZEIT

Genießen Sie wöchentlich aktuelle ZEIT-Artikel mit ZEIT AUDIO

Hier reinhören

Kommentare

20 Kommentare Seite 1 von 3 Kommentieren

Kurse

Tatsächlich habe ich Kurse entworfen und z.T. auch selber durchgeführt, wie eben den Verständnis-Kurs. Es ist aber nicht meine berufliche Tätigkeit. Und selbst wenn, werde ich nicht eigene Bezeichnungen einführen, die dann hinterher keiner kennt. Das wäre unfair gegen die Kursteilnehmer. Abgesehen davon, geht es eben darum, den digitalen Fernschreiber, den Code und die Transmission (=Datenstrom) zu verstehen. Von dort sind wir dann bei Datei...
Ob meine Teilnehmer nachher wissen, welcher Buchstabe welcher Nummer zugeordnet ist, ist weniger wichtig. Und der werte Herr Bemer... Wenn man ihn nicht kennt, bricht die Welt auch nicht kaputt.

Keine große Leistung

Die Fernschreiben hatten schon viel früher eine ähnliche Kodierung, aus der sich dann ASCII entwickelt hat: http://de.wikipedia.org/w...

Da ist es eigentlich kein großer Schritt einfach ein paar Bits mehr zu nehmen und dadurch die Anzahl der abbildbaren Zeichen zu erhöhen. Wie es auch in Wikipedia steht: "Vom Fünf-Bit-Murray-Code zum Sieben-Bit-ASCII war es dann nur noch ein kleiner Schritt [...]"
http://de.wikipedia.org/w...