Das soll künftig anders werden. Mit 2,6 Millionen Euro jährlich wird die Deutsche Digitale Bibliothek aus Bundes- und Landesmitteln gefördert, aus den Konjunkturprogrammen gibt es noch einmal die eine oder andere Million extra. Allerdings geht nichts davon in die tatsächliche Digitalisierung von Büchern. Die geschieht derzeit dezentral – und teilweise in chaotischer Manier. "Keiner spricht sich mit dem anderen ab, deshalb kommt es zu Doppeldigitalisierungen – eigentlich ist das eine Verschleuderung von Steuergeldern!", schimpft Ulrich Johannes Schneider. Was dringend fehle, sei ein nationales Konzept.

Es gibt nämlich durchaus unterschiedliche Ansätze zur Digitalisierung, abhängig von der Zielgruppe. Wendet man sich an Wissenschaftler, Studenten oder die Allgemeinheit? Davon hängt es ab, was für Bücher man auswählt, wenn man begrenzte Mittel hat.

Am einfachsten ist der Google-Ansatz . Die Gründer Larry Page und Sergei Brin nahmen sich 1998 vor, "die auf der Welt vorhandenen Informationen zu organisieren und allgemein zugänglich und nutzbar zu machen". Wer eine solche Mission hat, der kann die Frage, welche Bücher gescannt werden sollen, leicht beantworten: alle. Man fängt am besten links oben im Bücherregal an und hört rechts unten auf. Konkret sieht das so aus: Google fährt mit Lieferwagen bei den Bibliotheken vor und verfrachtet die Buchbestände Zug um Zug in geheime Digitalisierungszentren, wo Scan-Roboter die Bücher automatisch einlesen. Dann werden sie zurück an die Bibliothek geliefert.

In Deutschland ist die Bayerische Staatsbibliothek in München der einzige Google-Partner. "Die Kritik war groß, als wir uns der ›Datenkrake‹ Google ausgeliefert haben", erzählt der Bibliothekssprecher Peter Schnitzlein. Inzwischen sind die Kritiker verstummt, und so mancher Kollege aus anderen Bibliotheken schaut mit Neid auf den wachsenden digitalen Bestand in München.

Keinen Cent zahlt die Staatsbibliothek an Google. Gescannt werden sämtliche Werke, deren Urheberrechtsschutz erloschen ist , von 1600 bis zum Ende des 19. Jahrhunderts. Das sind etwa eine Million Bände, 40 Prozent davon sind schon erfasst. Wo Googles Scan-Zentrum sich befindet, will Schnitzlein nicht verraten, "aber die Bücher verlassen Bayern nicht".

Von Google bekommt die Bibliothek eine digitale Kopie jedes Buchs, mit der sie machen kann, was sie will. Außerdem lässt Google die eigene Software zur automatischen Texterkennung (OCR) über die Scans laufen – insbesondere bei deutscher Frakturschrift keine triviale Sache – und stellt auch diesen Text zur Verfügung.

In der Anfangszeit wurde viel über Googles mangelnde Scan-Qualität gespöttelt, es war schon einmal eine Hand auf der fotografierten Seite zu sehen. Das ist heute kein Thema mehr. "Es ist erstaunlich, mit welcher Geschwindigkeit Google Innovationen vorantreibt", sagt Schnitzlein. Das bestätigt auch Markus Brantl, Leiter der bayerischen Digitalisierung. Insbesondere die Schrifterkennung habe in der letzten Zeit gewaltige Fortschritte gemacht: "Es ist überraschend, wie gut die Software selbst die älteren Frakturschriften des 17. und 18. Jahrhunderts erkennt." In anderen Bibliotheken gilt Fraktur immer noch als unentzifferbar, und man erfasst nicht den Volltext der gescannten Bücher.