Wer das Internet durchsucht, der googelt. Die Suchmaschine ist mittlerweile zum Synonym für Internet-Recherche geworden. Wenn eine Seite nicht in einer Suchmaschine verzeichnet ist, dann existiert sie für die meisten Surfer nicht. Das ist aber im wahrsten Sinne des Wortes oberflächlich. Denn wenn das Internet das Meer ist, dann sind die Suchmaschinen Fischer, die vom Bootsrand aus nach unten schauen. Viel mehr als die Oberfläche bekommen sie nicht zu Gesicht.

Zugegeben, der Vergleich ist dreist. Schließlich kennt allein Google als die größte Suchmaschine im Internet geschätzte 20 Milliarden Webseiten. Trotzdem drängt sich das Bild von Wasseroberfläche und Tiefsee auf. Denn was Google weiß, macht höchstens ein paar Prozent des gesamten Internet aus. Der Rest ist für die Suchmaschine unsichtbar. Deshalb nennt man ihn auch "Deep Web" oder "Invisible Web".

Wie tief es unter der Oberfläche noch weiter geht, darüber streiten selbst die Experten. Angestoßen hat das Thema vor sechs Jahren die Firma Bright Planet . In einer Studie sagen die Amerikaner, dass das Deep Web etwa 500 Mal so groß sei, wie sein sichtbarer Bruder. Allerdings verkauft Bright Planet auch eine Suchtechnik, um das Deep Web zu durchsuchen. Unabhängigere Forscher wie Dirk Lewandowski, der an der Universität Düsseldorf Informationswissenschaft lehrt, stapeln da schon etwas tiefer. Die Bright Planet- Studie sei nicht verlässlich, schreibt er, denn zum einen sei die durchschnittliche Seitengröße zu hoch eingeschätzt worden. Zum anderen habe man nicht die Anzahl der Dokumente gezählt, sondern deren Größe in Byte. Weil es aber bisher keine verlässlichen Studien gibt, können auch Lewandowski und seine Kollegen nur vage schätzen: zwei bis fünfzig Mal so viele unsichtbare wie sichtbare Seiten veranschlagen sie.

Aber auch solche konservativeren Schätzungen bestreiten nicht: Das Deep Web ist riesig. "Trotzdem werden die Suchmaschinen zunehmend zu Torwächtern des Internet", bemerkt Lewandowski. "Denn sie suggerieren, dass alle verfügbaren Informationen mit nur einem System durchsucht werden können."

Dabei erscheint es bei näherer Betrachtung sogar logisch, dass die Suchmaschinen mit vielen Inhalten überfordert sind. Die so genannten "Spider" oder "Robots", die für sie das Netz durchkämmen, sind nämlich ziemlich simple Programme. Ihr größtes Manko: Ohne Text geht gar nichts. Bilder, Musikdateien, Programme, Seiten mit Flash-Animationen – all das bleibt für sie unsichtbar. Auch können sie keine Formulare ausfüllen, um zum Beispiel Telefon-, Bibliotheks- und sonstige Verzeichnisse zu durchsuchen. Und passwortgeschützte Seiten sind ohnehin außerhalb ihrer Reichweite.