Wie oft sehen Sie Werbung für Mausefallen im Internet? Als bunte Banner am Rand von Websites oder Textwerbung neben Suchergebnissen. Nie? Für einen Kollegen ist gerade das ganze Netz voll davon. Er hat einen Artikel über den Nagerfang recherchiert und dabei mehrmals »Mausefalle« ins Suchfenster von Google getippt. Jetzt verfolgen ihn die entsprechenden Anzeigen.

Gut, das ist bloß Reklame. Aber was wäre, wenn dieser Effekt nicht auf Werbung beschränkt wäre? Wenn sich ein vorübergehendes Interesse – etwa an Mausefallen – auch auf künftige Suchergebnisse auswirkte? Wenn also die Klicks und Suchworte der Vergangenheit beeinflussen würden, was in Zukunft auf dem Bildschirm erscheint?

Wenn in diesem Gedankenspiel zwei Personen dasselbe Wort googelten, »Griechenland« etwa, bekäme der Nachrichten-Junkie Meldungen über den Euro und Unruhen in Athen zu sehen, der Genussmensch Tipps fürs Insel-Hüpfen in der Ägäis und Links zu Last-Minute-Portalen.

Diese Entwicklung hat längst begonnen. Die Vorstellung, eine Suchmaschine würde uns die objektiv wichtigsten Seiten zu einem Suchbegriff liefern, ist schon heute falsch. Das Netz, einst das Versprechen des ungehinderten Zugangs zur weiten Welt, beginnt unsere Weltsicht zu verengen. Beständig werden die hinter den Seiten steckenden Programme besser darin, Inhalte auszuwählen, die ein Nutzer – nach ihrer Berechnung – sehen will. Das klingt einfühlsam und komfortabel, aber die Personalisierung wird das Netz verändern. Wie, das versuchen Wissenschaftler und Onlinevordenker gerade auszuloten – so gut das eben geht. Denn die folgenreiche Veränderung vollzieht sich im Verborgenen, weder Google noch Facebook noch sonst einer der Vorreiter legen ihre Algorithmen offen.

Es muss schon viel passieren, bevor man es überhaupt mitbekommt. »Eines Tages bemerkte ich, dass meine konservativen Freunde aus meinem Facebook-Feed verschwunden waren «, erinnert sich Eli Pariser. Ende März stand er im kalifornischen Long Beach auf der Bühne der einflussreichen TED-Konferenz und erzählte: Stets habe er sich bemüht, im Kontakt zu Konservativen ebenso wie zu Liberalen zu stehen, und in dem Sozialen Netzwerk entsprechende Kontakte geknüpft. In der Liste der Neuigkeiten, die Facebook ihm täglich auf seiner Startseite präsentiert habe, seien aber irgendwann nur noch Kommentare, Fotos und Empfehlungen politisch Gleichgesinnter aufgetaucht.

Pariser erklärt sich das so: Die Neuigkeiten der Linken habe er häufiger angeklickt. Daraufhin habe die Facebook-Software entschieden, dass die Neuigkeiten der Rechten ihm wohl nicht so wichtig seien. »Und hat sie rausgestrichen, ohne mich zu fragen.«

Mit dieser Anekdote warnt Pariser – ein eloquenter 30-Jähriger mit kurz getrimmtem Vollbart und lässig flatternden Hemdschößen – vor einer Zukunft der digitalen Bevormundung. Hier spricht kein Technikskeptiker. Seit zehn Jahren arbeitet er an der Spitze von MoveOn.org , einer gemeinnützigen Internetplattform, die für politische Kampagnen Spenden sammelt und Freiwillige mobilisiert. Pariser ist ein Aktivist, der die Möglichkeiten des Webs kennt und zu nutzen weiß. Dennoch setzte er sich im vergangenen Jahr hin und schrieb ein mahnendes Buch über die düstere Zukunft des Internets: The Filter Bubble – die »Blase des Vorsortierten« (im Herbst 2012 soll bei Hanser eine deutsche Fassung erscheinen).

Eine Zukunft der digitalen Bevormundung

Fundiert recherchiert und gut nachvollziehbar legt Pariser dar: Mithilfe von Techniken, die ursprünglich dazu dienten, Internetnutzer mit möglichst passender Werbung einzudecken, wird auch eine wachsende Zahl anderer Inhalte vorsortiert.

Etwa in Sozialen Netzwerken . Da senden die Nutzer beständig Signale zu ihren Vorlieben (»Gefällt mir!«), ihrem sozialen Umfeld (»Freunde«), sie bewerten Filme, Musiker und Produkte. Eine Software wertet jedes dieser Signale aus und blendet ein, was dazu passen könnte. »Relevanz« lautet das Zauberwort der Programmierer. Bloß ist Relevanz nicht normativ gemeint, mit keiner Idee von wissen sollen oder verstehen müssen verbunden. Relevant ist schlicht alles, was den Nutzer zu einem weiteren Klick verleitet.

»Ein sterbendes Eichhörnchen vor deinem Haus könnte relevanter für dein aktuelles Interesse sein als Menschen, die in Afrika sterben«, zitiert Pariser den Facebook-Gründer Mark Zuckerberg. Das ist mehr als nur zynisch. Ein solches Verständnis von Relevanz birgt die Gefahr, dass überraschende oder mutmaßlich unerwünschte Inhalte (wie die Aktivitäten von Parisers konservativen Freunden) erst gar nicht ins Blickfeld geraten.

»Mehr und mehr wird dein Computermonitor zum Spiegel, der deine eigenen Interessen reflektiert, während algorithmische Aufseher beobachten, was du anklickst!«, schreibt Pariser. Die metaphorische Filterblase, in der ein Nutzer sitzt, mag diesem zwar gläsern erscheinen, in Wahrheit ist sie von innen verspiegelt. Mit dem Begriff »Spiegelrealität« hat der Informatiker David Gelernter 1991 die Konsequenz vorweggenommen – ein virtuelles Konstrukt, das just deswegen so problematisch ist, weil es die Realität wiederzugeben scheint .

»Eine kleine Gruppe von Ingenieuren reicht aus, um eine Technologie zu erschaffen, welche die künftige menschliche Erfahrung mit irrem Tempo beeinflussen kann«, schrieb der zum Technikkritiker konvertierte Softwareguru Jaron Lanier im vergangenen Jahr. Kulturpessimismus? Die Schilderung von Eli Pariser macht Laniers Warnung konkret. Natürlich verlockt es, sie als übertrieben zu verwerfen. Geht es doch scheinbar nur um die Nichtigkeiten, die wir beim digitalen Zeittotschlagen zu Gesicht bekommen. Andererseits beobachten Sozialforscher, wie Facebook in den USA besonders für jüngere Nutzer nicht nur als Quelle für Klatsch und Tratsch fungiert. Immer mehr Menschen beziehen auch ihre Nachrichten aus dem Sozialen Netz. Da ist der Gedanke einer automatischen Vorabauswahl höchst beunruhigend.

Zumal die Filteralgorithmen mitnichten auf Facebook und Co. beschränkt sind. Das zeigt ein Experiment des Netzwerktheoretikers Felix Stalder , Dozent für Medientheorie an der Zürcher Hochschule der Künste, und zweier Kollegen aus Wien und London: Die drei Wissenschaftler haben für drei tote Philosophen – Immanuel Kant, Friedrich Nietzsche und Michel Foucault – bei der Suchmaschine Google jeweils ein persönliches Profil angelegt. Dann haben sie sich als Kant, Nietzsche und Foucault eingeloggt und Schnipsel aus den jeweiligen Werken als Suchanfragen eingegeben. Weil Google das alles speichert, entstanden drei ganz unterschiedliche Datenspuren. (Kant hätte sicher weder nach Foucaults Wortungetüm »Sexualitätsdispositiv« gesucht noch Nietzsches »Gott ist tot« in den Suchschlitz eingegeben.)

In einem zweiten Schritt googelten die Forscher nach identischen modernen Suchbegriffen und analysierten die Unterschiede in den Ergebnislisten. Stalder berichtet: »Was in den drei Profilen gespeichert war, wirkte sich auf die Auswahl und Sortierung der Treffer aus, die bei unseren Philosophen auf dem Bildschirm erschienen.« Im April erläuterte das Team in einem Fachaufsatz das »überraschende Ausmaß« : Im Vergleich zu einer anonymen Suche unterschied sich durchschnittlich die Hälfte der Ergebnisse – entweder durch eine andere Position in der Trefferliste (37 Prozent), oder weil sie nur bei einem der Philosophen auftauchten (13 Prozent).

Vom Griechenland-Gedankenspiel ist das schon gar nicht mehr so weit entfernt.

"Die Personalisierung steht erst ganz am Anfang"

»Die meisten Menschen glauben, dass Google ihnen ein objektives Abbild des Internets zeigt«, sagt Stalder. »Das ist aber längst nicht mehr so.« Dabei glaubt er, dass die Personalisierung »erst ganz am Anfang« steht.

Gegen diese Versuchsanordnung drängt sich ein Einwand auf: Die meisten Webnutzer googeln, ohne angemeldet zu sein. Stalder hält dagegen: »Google hat schon vor zwei Jahren angekündigt, alle Suchergebnisse zu personalisieren«. Dienste wie Gmail, YouTube, Picasa oder Google Docs motivierten zur Anmeldung, sie könne man nur mit eigenem Konto nutzen. Stalder glaubt: »Man kann sich dem nicht mehr ohne Weiteres entziehen.«

Mit Macht kehrt da eine Debatte aus der Frühzeit des Webs zurück. Nicholas Negroponte , in den neunziger Jahren einer der einflussreichsten Vordenker der Digitalisierung, hatte bereits 1995 in seinem Buch Total digital die totale Personalisierung prophezeit. Nur ging Negroponte davon aus, dass sie mit persönlich zugeschnittenen Nachrichten-Websites ihren Anfang nehmen würde. Damit provozierte er eine akademische Debatte über die Folgen einseitiger Information für die politische Öffentlichkeit, die 2001 in dem Buch Republic.com des Harvard-Juristen und heutigen Obama-Beraters Cass Sunstein ihren Höhepunkt hatte. Der schrieb: »Unerwartete Begegnungen mit fremden, ja irritierenden Themen und Meinungen sind zentral für die Demokratie und die Freiheit selbst.« Sein Szenario einer »Cyberbalkanisierung« war äußert einflussreich, bloß ließ sich der Trend damals empirisch nicht belegen.

Nun ist die Debatte um Informationskokons zurückgekehrt. Und diesmal mangelt es nicht an Belegen. Die Technik für die filter bubble existiert, und sie kann offenbar auch die gewünschte Wirkung erzielen. Im Detail mag man am Szenario eines allseits vorsortierenden Webs zweifeln. (Ist das nicht überzeichnet? Werden nicht die Nutzer rasch Gegenstrategien entwickeln?) Die Onlinewerbung – Stichwort Mausefallen! – zeigt allerdings, wie wesentlich eine möglichst passgenaue Zuordnung von Nutzern zu bestimmten Interessengruppen ist. Eine ganze Branche von Datensammlern lebt davon. Entsprechend ausgefuchst sind die technischen Möglichkeiten zur Personalisierung bereits heute – und sie befruchten die Fantasie der Informatiker auch außerhalb der Werbeflächen.

Pariser betont in seinem Buch, welchen Segen das Internet in die Welt gebracht habe – und wie wenig er darauf verzichten möchte. Aber als er in Long Beach vor dem exklusiven TED-Publikum aus Ingenieuren, Start-up-Unternehmern und Technikenthusiasten stand, beklagte er einen grundlegenden Mangel: »Die algorithmischen Vorsortierer verfügen über keine eingebaute Ethik.« Er appellierte an die anwesenden Programmierer und persönlich an die Google-Gründer Larry Page and Sergey Brin, fortan »bürgerliche Verantwortung« in die Codezeilen neuer Sortiersoftware einfließen zu lassen.

Das würde bedeuten: Wer filtert, muss es transparent machen. Wer Relevanz definiert, muss es erläutern. Wer weglässt, muss darauf hinweisen.

Mit lästigen Bannern hat es angefangen, die gesellschaftliche Dimension wird jetzt erst sichtbar, die Technologie schreitet rasch fort: Gerade hat Google angekündigt, seine Suche »sozialer« zu machen . Die Algorithmen sollen persönliche Vorlieben stärker gewichten. Kaum ein Internetgeschäftsmodell kommt heute ohne das Adjektiv social aus. Und Facebook? Kooperiert mit Microsofts Suchmaschine Bing . Das mächtige Soziale Netzwerk will als Vorsortierer fungieren, auch für den Rest der digitalen Welt. Oder sagen wir besser: der digitalen Welt en .

Diesen Artikel finden Sie als Audiodatei im Premiumbereich unterwww.zeit.de/audio