50 Jahre AsciiAls Computer lernten, miteinander zu sprechen

Am 17. Juni 1963 wurde der Ascii-Code eingeführt. Ohne ihn wäre das Internet undenkbar. Sein Erfinder ist ein unbesungener Held des Computerzeitalters von Tilman Baumgärtel

ASCII-Art

"Ascii-Art", eine Kunstform, bei der Bilder am Computer allein aus Satzzeichen und Buchstaben gestaltet werden, gibt es auch in Form von Tattoos.  |  © Jens Ressing / dpa

Zeit seines Lebens kämpfte der amerikanische Ingenieur und Programmierer Bob Bemer darum, als "Vater von Ascii" anerkannt zu werden. Vergeblich: Auch neun Jahre nach seinem Tod ist er nur einer winzigen Fachöffentlichkeit bekannt. Der größte Teil der Weltbevölkerung dürfte nicht einmal wissen, was Ascii ist.

Dabei hätte ohne den American Standard Code for Information Interchange, kurz Ascii, jahrzehntelang kein Computerdrucker funktioniert. Es wären keine Textverarbeitungsprogramme entstanden, es gäbe keine E-Mail und kein World Wide Web. Am heutigen Montag wird der Ascii-Code 50 Jahre alt.

Anzeige

Bob Bemer ist einer der unbesungenen Helden des Computerzeitalters. Als Angestellter von IBM gehörte Bemer Anfang der sechziger Jahre zu einem Gremium von Computer-Experten, das im Auftrag der American Standards Association (ASA, heute: American National Standards Institute, Ansi) eine gemeinsame Sprache für die Kommunikation unter Rechenmaschinen entwickelte. Zu dieser Zeit gab es mehr als sechzig Methoden, Zahlen und die Buchstaben des Alphabets so in Zahlenkolonnen zu verwandeln, dass die Maschinen sie lesen konnten. Es war ein digitaler Turm zu Babel. Damit Rechner der unterschiedlichen Bauarten miteinander kommunizieren konnten, war ein gemeinsamer Standard notwendig.

Im Mai 1961 entwarf Bemer einen allgemeinen Code für die Darstellung von alphanumerischen Zeichen, der von der American National Standards Association akzeptiert wurde. Ein Team von Ingenieuren entwickelte dann eine endgültige Version von Ascii, die am 17. Juni 1963 verabschiedet wurde.

Zuerst für Fernschreiber

Die Zeichenkodierung bestand aus 128 Zeichen, von denen 95 druckbare Buchstaben, Zahlen und Sonderzeichen wie #, $ ,%, & oder + waren. Der Buchstabe L wurde zum Beispiel in die Zahlenfolge 0100 1100 zerlegt, die von allen Rechnern verstanden werden konnte.

Da Ascii in den USA entwickelt worden war gab es kein é, kein ç und kein ä, da diese Buchstaben im Englischen nicht existieren. Außerdem wurden eine Reihe von nicht druckbaren Steuerzeichen definiert: Zeilenvorschub, Tabulator oder Backspace. Weiterhin gab es sogenannte Protokollzeichen, die dem empfangenden Rechner zum Beispiel signalisierten, dass die Daten-Übertragung beendet war.

Freilich waren die Computer zu dieser Zeit meist wohnzimmergroße Geräte, die noch nicht über ein Netzwerk miteinander verbunden waren. Aber mit dem Fernschreiber hatte das Zeitalter der Onlinekommunikation bereits begonnen. Bei Fernschreibern wurde Ascii darum zuerst als Standard eingesetzt. Die Geräte zerlegten Texte in Ascii-Zahlenreihen, die von einem Terminal zum anderen gesendet wurden, wo sie auf Lochstreifen wieder ausgegeben wurden.

Leserkommentare
    • wauz
    • 17. Juni 2013 19:02 Uhr

    Unter Ingenieuren gibt es einen Spruch: Wenn keinem mehr etwas einfällt, dann macht man eine Norm." Die Standardisierung der digitalen Fernschreiber-Übertragung war sicherlich ein wichtiger Schritt, aber an sich keine Erfindung. Deswegen wird der Herr Bemer eben nicht in die Reihe der Erfinder gestellt.
    Merken sollte man sich seinen Namen trotzdem. Man könnte den Ur-ASCII zu seinen Ehren Bemer-Code nennen.

    Nebenbei: Diesen Code verstanden zu haben, hilft bei der täglichen Arbeit mit Rechnern sehr viel mehr weiter, als man zunächst glaubt. In meinem Computer-Verständnis-Kurs ist er tatsächlich die erste Unterrichtseinheit.

    3 Leserempfehlungen
    Reaktionen auf diesen Kommentar anzeigen

    dann führe den begriff bemer-code doch ein.
    es ist auch angenehmer auszusprechen als "a

  1. dann führe den begriff bemer-code doch ein.
    es ist auch angenehmer auszusprechen als "a

    Reaktionen auf diesen Kommentar anzeigen

    Entfernt. Bei Fragen zur Moderation und Problemen im Kommentarbereich wenden Sie sich bitte direkt an community@zeit.de. Danke, die Redaktion/jp

    • wauz
    • 17. Juni 2013 20:29 Uhr

    Tatsächlich habe ich Kurse entworfen und z.T. auch selber durchgeführt, wie eben den Verständnis-Kurs. Es ist aber nicht meine berufliche Tätigkeit. Und selbst wenn, werde ich nicht eigene Bezeichnungen einführen, die dann hinterher keiner kennt. Das wäre unfair gegen die Kursteilnehmer. Abgesehen davon, geht es eben darum, den digitalen Fernschreiber, den Code und die Transmission (=Datenstrom) zu verstehen. Von dort sind wir dann bei Datei...
    Ob meine Teilnehmer nachher wissen, welcher Buchstabe welcher Nummer zugeordnet ist, ist weniger wichtig. Und der werte Herr Bemer... Wenn man ihn nicht kennt, bricht die Welt auch nicht kaputt.

  2. 3. [...]

    Entfernt. Bei Fragen zur Moderation und Problemen im Kommentarbereich wenden Sie sich bitte direkt an community@zeit.de. Danke, die Redaktion/jp

  3. Die offensichtlichste, denkbar naivste Lösung eines Problems ist noch lange keine Erfindung. ASCII ist einfach nur unklug, egal aus welcher Perspektive man es betrachtet. Auch damals war weithin bekannt wie unzureichend der Standard war, auch für damalige Anforderungen.

    ASCII hat in der Entwicklung der Informatik definitiv mehr Probleme verursacht, als es gelöst hat (bis heute!). Ein deutliches Paradebeispiel für eine schlecht bedachte, unkluge Standardisierung.

    Eine Leserempfehlung
    Reaktionen auf diesen Kommentar anzeigen
    • wauz
    • 17. Juni 2013 20:39 Uhr

    bzw. ist bestenfalls die zweitbeste Lösung. Trotzdem hat Remington es mit einem genialen Marketingtrick geschafft, dieses Layout durchzusetzen. IBM hat dann mit genau demselben Trick Remington aus dem Markt für Firmenrechner gepustet...

    Und Ma Cobol hat uns den y2k-bug untergejubelt.

    Aha, ich habe mich damals immer gefragt, wer ASCII wohl verbrochen hat. Warum müssen Kleinbuchstaben größer sein als Großbuchstaben? Warum muss man solche Klimmzüge machen, wenn man eine einfache Sortierfunktion programmieren will? Wer vergisst einerseits die uns wichtigen Umlaute und fügt andererseits an so markanter Stelle diese sinnlose mittelalterliche Ligatur des at-Zeichens ein? Erst 10 Jahre später mit Erfindung der Email fand man eine sinnvolle Verwendung für dieses komische Zeichen.

  4. Die Fernschreiben hatten schon viel früher eine ähnliche Kodierung, aus der sich dann ASCII entwickelt hat: http://de.wikipedia.org/w...

    Da ist es eigentlich kein großer Schritt einfach ein paar Bits mehr zu nehmen und dadurch die Anzahl der abbildbaren Zeichen zu erhöhen. Wie es auch in Wikipedia steht: "Vom Fünf-Bit-Murray-Code zum Sieben-Bit-ASCII war es dann nur noch ein kleiner Schritt [...]"
    http://de.wikipedia.org/w...

  5. kein Wort von EBCDIC, Extended Binary Coded Decimals Interchange Code. Tuts auch, kein ASCII nötig.

    Reaktionen auf diesen Kommentar anzeigen

    dass es mindestens sieben Versionen davon gibt, die paarweise inkompatibel sind. Super Ding.

    daher jedem seine Norm

    • wauz
    • 17. Juni 2013 20:29 Uhr
    7. Kurse

    Tatsächlich habe ich Kurse entworfen und z.T. auch selber durchgeführt, wie eben den Verständnis-Kurs. Es ist aber nicht meine berufliche Tätigkeit. Und selbst wenn, werde ich nicht eigene Bezeichnungen einführen, die dann hinterher keiner kennt. Das wäre unfair gegen die Kursteilnehmer. Abgesehen davon, geht es eben darum, den digitalen Fernschreiber, den Code und die Transmission (=Datenstrom) zu verstehen. Von dort sind wir dann bei Datei...
    Ob meine Teilnehmer nachher wissen, welcher Buchstabe welcher Nummer zugeordnet ist, ist weniger wichtig. Und der werte Herr Bemer... Wenn man ihn nicht kennt, bricht die Welt auch nicht kaputt.

    • wauz
    • 17. Juni 2013 20:39 Uhr

    bzw. ist bestenfalls die zweitbeste Lösung. Trotzdem hat Remington es mit einem genialen Marketingtrick geschafft, dieses Layout durchzusetzen. IBM hat dann mit genau demselben Trick Remington aus dem Markt für Firmenrechner gepustet...

    Und Ma Cobol hat uns den y2k-bug untergejubelt.

    5 Leserempfehlungen
    Antwort auf "Naivste Lösung"

Bitte melden Sie sich an, um zu kommentieren

  • Artikel Auf einer Seite lesen
  • Quelle ZEIT ONLINE
  • Schlagworte Computer | Internet | USA
Service