Während meiner ersten Reisen nach Mexiko in den siebziger Jahren fielen mir im Metrosystem der Hauptstadt die Piktogramme ins Auge, mit denen die U-Bahn-Stationen gekennzeichnet waren: stilisierte Bilder anstelle einer Buchstabenschrift. Als Erklärung wurde das seinerzeit noch weitverbreitete Analphabetentum angeführt, und daß sich die indígenas , die von weit her zu allerlei Geschäften in die mexikanische Hauptstadt angereist kamen, nur anhand der Bildchen orientieren könnten. Heute sind nur noch wenige Piktogramme zu sehen, vielleicht deshalb, weil die fortgeschrittene Alphabetisierung auch der mexikanischen Landbevölkerung ihren Einsatz überflüssig macht.

Auf anderen Gebieten jedoch, und keineswegs nur in Mexiko, hat der Einsatz von Piktogrammen stark zugenommen: in Gebrauchsanweisungen und Waschanleitungen, im Straßenverkehr und in Bahnwaggons, auf Flughäfen und im Krankenhaus, auf der Wetterkarte im Fernsehen, im World Wide Web und mittlerweile sogar in den Printmedien.

Es gibt eine Wissenschaft, die sich mit mit der Entschlüsselung von Bildersprachen beschäftigt: die Altamerikanistik. Sie steht vor einer schwierigen Aufgabe, die sich mit der Rekonstruktion einer gelöschten Festplatte vergleichen läßt. Vor etwa 500 Jahren nämlich spürten spanische Mönche fast alle Archive und Bücher der Maya, Mixteken und Azteken auf und warfen das kulturelle Erbe von Jahrtausenden ins Feuer. Mit den Manuskripten vernichteten sie auch das darin enthaltene Wissen, die Geschichte, die Mythologie, Erkenntnisse über die Welt, Literatur und Philosophie des Alten Mexiko - und schließlich auch die Schriftkunst als solche, die zu einem erheblichen Teil aus Piktogrammen bestand.

Heute versuchen Wissenschaftler anhand eines knappen Dutzends präkolumbischer Dokumente, die dem Feuer entkamen und, mit wenigen Ausnahmen, nach Europa gelangten, diese Schriften wieder zu erlernen: Schritt für Schritt, Zeichen für Zeichen.

Bis vor kurzem hatte die internationale Schriftforschung die präkolumbischen Notationssysteme entweder ignoriert - das vorspanische Amerika galt als "schriftlos" -, oder sie disqualifizierte sie als entwicklungsgeschichtlich unvollständige Vorformen, da diese Systeme die Kriterien einer "Vollschrift" angeblich nicht erfüllten. In der einschlägigen Fachliteratur zur Schrifttheorie wurde die Buchstabenschrift als Krönung aller Schriftentwicklung eingestuft; andere Informationssysteme erfüllen nicht die Kriterien einer Schrift. Punktum.

Nach dieser Auffassung folgt Schriftentwicklung einem streng evolutionistischen Schema. Die Theorie des Schriftspezialisten Ignace Gelb zum Beispiel läßt die Entwicklung der Schrift linear von der Bilderschrift über die Wortschrift und Silbenschrift zur Alphabetschrift verlaufen. Schrift wird strikt von der Illustration getrennt, letztere sei gleichbedeutend mit Kunst. Noch weiter geht der Sinologe John DeFrancis, dem zufolge eine vollwertige Schrift zwangsläufig sprachgebunden sein müsse, weil die "Sprache das vollständigste und effizienteste System der Beschreibung menschlichen Denkens" sei. Die Alphabetschrift als aufgezeichnete Sprache erfüllt DeFrancis' Kriterium einer "richtigen" Schrift; sprachungebundene Schriften bezeichnet er hingegen als "Partial"- oder "Pseudoschriften", deren Anwender in "kulturell begrenzten Gesellschaften" lebten.

Damit dürfte die Leistungsfähigkeit der Bilderschriften indes unterschätzt, die der Buchstabenschriften wohl stark überschätzt werden. Jeder Ethnologe, der versucht, seine Tonbandaufzeichnungen in Buchstabenschrift zu transkribieren, kennt deren Mängel. Was geht nicht alles verloren: Die zeit- und umgebungsbedingten Faktoren, Pausen, langsames akzentuiertes oder schnelles Sprechen, Betonungen, laut und leise, Wehklagen oder Jubeln, Gesang und Sprechgesang, Körperhaltung des Vortragenden, die gesamte Spannung einer Performance. Noch weniger läßt sich komplexes Wissen in Form einer Alphabet- oder Lautschrift befriedigend fixieren, daher die erwähnten verschiedenen Visualisierungssysteme in den Naturwissenschaften oder der Kunst.