Fundiert recherchiert und gut nachvollziehbar legt Pariser dar: Mithilfe von Techniken, die ursprünglich dazu dienten, Internetnutzer mit möglichst passender Werbung einzudecken, wird auch eine wachsende Zahl anderer Inhalte vorsortiert.

Etwa in Sozialen Netzwerken . Da senden die Nutzer beständig Signale zu ihren Vorlieben ("Gefällt mir!"), ihrem sozialen Umfeld ("Freunde"), sie bewerten Filme, Musiker und Produkte. Eine Software wertet jedes dieser Signale aus und blendet ein, was dazu passen könnte. "Relevanz" lautet das Zauberwort der Programmierer. Bloß ist Relevanz nicht normativ gemeint, mit keiner Idee von wissen sollen oder verstehen müssen verbunden. Relevant ist schlicht alles, was den Nutzer zu einem weiteren Klick verleitet.

"Ein sterbendes Eichhörnchen vor deinem Haus könnte relevanter für dein aktuelles Interesse sein als Menschen, die in Afrika sterben", zitiert Pariser den Facebook-Gründer Mark Zuckerberg. Das ist mehr als nur zynisch. Ein solches Verständnis von Relevanz birgt die Gefahr, dass überraschende oder mutmaßlich unerwünschte Inhalte (wie die Aktivitäten von Parisers konservativen Freunden) erst gar nicht ins Blickfeld geraten.

"Mehr und mehr wird dein Computermonitor zum Spiegel, der deine eigenen Interessen reflektiert, während algorithmische Aufseher beobachten, was du anklickst!", schreibt Pariser. Die metaphorische Filterblase, in der ein Nutzer sitzt, mag diesem zwar gläsern erscheinen, in Wahrheit ist sie von innen verspiegelt. Mit dem Begriff "Spiegelrealität" hat der Informatiker David Gelernter 1991 die Konsequenz vorweggenommen – ein virtuelles Konstrukt, das just deswegen so problematisch ist, weil es die Realität wiederzugeben scheint .

"Eine kleine Gruppe von Ingenieuren reicht aus, um eine Technologie zu erschaffen, welche die künftige menschliche Erfahrung mit irrem Tempo beeinflussen kann", schrieb der zum Technikkritiker konvertierte Softwareguru Jaron Lanier im vergangenen Jahr. Kulturpessimismus? Die Schilderung von Eli Pariser macht Laniers Warnung konkret. Natürlich verlockt es, sie als übertrieben zu verwerfen. Geht es doch scheinbar nur um die Nichtigkeiten, die wir beim digitalen Zeittotschlagen zu Gesicht bekommen. Andererseits beobachten Sozialforscher, wie Facebook in den USA besonders für jüngere Nutzer nicht nur als Quelle für Klatsch und Tratsch fungiert. Immer mehr Menschen beziehen auch ihre Nachrichten aus dem Sozialen Netz. Da ist der Gedanke einer automatischen Vorabauswahl höchst beunruhigend.

Zumal die Filteralgorithmen mitnichten auf Facebook und Co. beschränkt sind. Das zeigt ein Experiment des Netzwerktheoretikers Felix Stalder , Dozent für Medientheorie an der Zürcher Hochschule der Künste, und zweier Kollegen aus Wien und London: Die drei Wissenschaftler haben für drei tote Philosophen – Immanuel Kant, Friedrich Nietzsche und Michel Foucault – bei der Suchmaschine Google jeweils ein persönliches Profil angelegt. Dann haben sie sich als Kant, Nietzsche und Foucault eingeloggt und Schnipsel aus den jeweiligen Werken als Suchanfragen eingegeben. Weil Google das alles speichert, entstanden drei ganz unterschiedliche Datenspuren. (Kant hätte sicher weder nach Foucaults Wortungetüm "Sexualitätsdispositiv" gesucht noch Nietzsches "Gott ist tot" in den Suchschlitz eingegeben.)

In einem zweiten Schritt googelten die Forscher nach identischen modernen Suchbegriffen und analysierten die Unterschiede in den Ergebnislisten. Stalder berichtet: "Was in den drei Profilen gespeichert war, wirkte sich auf die Auswahl und Sortierung der Treffer aus, die bei unseren Philosophen auf dem Bildschirm erschienen." Im April erläuterte das Team in einem Fachaufsatz das "überraschende Ausmaß" : Im Vergleich zu einer anonymen Suche unterschied sich durchschnittlich die Hälfte der Ergebnisse – entweder durch eine andere Position in der Trefferliste (37 Prozent), oder weil sie nur bei einem der Philosophen auftauchten (13 Prozent).

Vom Griechenland-Gedankenspiel ist das schon gar nicht mehr so weit entfernt.