Die Kommunikationswissenschaftlerin Nele Heise bei der re:publica © Patrick Beuth / ZEIT ONLINE

Wer nicht programmieren kann, läuft Gefahr, selbst programmiert zu werden – diese Erkenntnis des US-Autors Douglas Rushkoff treibt Nele Heise um. Die Kommunikationswissenschaftlerin vom Hans-Bredow-Institut für Medienforschung ist auf der re:publica in Berlin, um über "Code Literacy" zu sprechen. Gemeint ist das Verständnis dafür, was Software, was Code und Algorithmen eigentlich tun und wer mit welcher Absicht dahintersteckt. "Digitale Staatsbürgerkunde", nennen es Heise und ihre Mitstreiter.

Code und Algorithmen sind überall, in der Suchmaschine, auf Websites, im Bonuskartensystem der Supermärkte. Die meisten Menschen nutzen die Oberflächen dieser Dienste und Angebote, aber sie wissen nicht, was unter dieser Oberfläche passiert, sagt Heise. Die 28-jährige ist in einem Haushalt ohne Fernseher und Computer aufgewachsen und hat sich ihr Wissen über das, was unter der Oberfläche von Onlinediensten passiert, langsam selbst erarbeitet.

Nun könnte man einwenden, die meisten Menschen würden auch Auto fahren, ohne genau zu wissen, wie ein Verbrennungsmotor funktioniert. Aber es gibt einen wichtigen Unterschied: Code ist nicht wertneutral. Code ist programmiert worden von jemandem mit einer politischen Agenda, einem wirtschaftlichen Ziel oder einem bestimmten Menschenbild. Nele Heise findet, die Nutzer sollten diese Agenda, dieses Ziel, dieses Menschenbild erkennen können, um zu wissen, ob und wie ihr Weltbild beeinflusst wird.

Sie kommt schnell auf Google zu sprechen, vor allem auf den Algorithmus der marktbeherrschenden Suchmaschine. Der berücksichtigt mindestens 200 Faktoren, um ein Suchergebnis individuell auf den jeweiligen Nutzer zuzuschneiden. Wie er das tut, haben Googles Programmierer festgelegt. Kaum jemand weiß, welche Faktoren welche Rolle bei der Gewichtung spielen.

Das sei aber auch nicht entscheidend, findet Heise, es gehe nicht um die letzten Details eines Algorithmus oder einer Software: "Ich glaube nicht, dass der ganz normale Anwender einen Quellcode verstehen oder gar selbst schreiben können muss. Aber er sollte wissen, dass über solche Quellcodes definiert wird, was online möglich ist." In ihrem Workshop bei der re:publica fällt dazu die Bezeichnung "digitale Mündigkeit".

Von der kann in Deutschland noch keine Rede sein – das zeigen schon die Reaktionen im Workshop. Wie die Filter und Algorithmen von Google, Facebook und allen anderen Onlinediensten zumindest in ihren Grundzügen funktionieren, wissen selbst hier, auf Deutschlands größter Konferenz zu Netzthemen, beileibe nicht alle. Das wird auch deutlich während der Diskussion von Stephan Noller, Mercedes Bunz und Joerg Blumtritt über "Algorithmen-Ethik". Als Bunz fragt, wer im Saal wisse, warum Google manchmal aktuelle Nachrichten in seinen Suchergebnissen zeigt und manchmal nicht, hebt niemand die Hand.

Noller, Gründer des Targeting-Dienstes nugg.ad, schrieb schon im vergangenen Jahr in der FAZ: "Wenn die 68er-Lehrergeneration ihren Schülern durch Zeitungsanalyse mit Schere und Textmarker beigebracht hat, wie Meinung gemacht wird, müssen die Schüler in der Zukunft verstehen lernen, warum sie auf ihrem Computer eine andere Nachrichtenlage sehen werden als ihr Tischnachbar."

In Berlin fordern er und Bunz aber nicht nur die Vermittlung von Wissen über Codes und Algorithmen schon in der Schule. Noller will auch die Googles und Facebooks dieser Welt in die Pflicht nehmen: "Es braucht eine gesetzliche Verpflichtung für Unternehmen, Algorithmen oder wenigstens deren Prinzipien offenzulegen und kontrollierbar zu machen."

Mit anderen Worten: Google soll erklären müssen, wie es Suchergebnisse gewichtet, Geschäftsgeheimnis hin oder her. "Ein kleiner Button auf der Website, der darauf hinweist, dass ein Ergebnis personalisiert ist, reicht da nicht", findet Noller. Es bestehe "die Gefahr, dass wir den Zugang zu ungefilterten Informationen verlieren, oder zumindest das Wissen über diese Filter".