re:publica 2013Raus aus der digitalen Unmündigkeit

Wie beeinflusst Computer-Code seine Nutzer? Für die Forscherin Nele Heise ist das "digitale Staatsbürgerkunde", um die es in Deutschland schlecht bestellt ist. von 

Nele Heise

Die Kommunikationswissenschaftlerin Nele Heise bei der re:publica  |  © Patrick Beuth / ZEIT ONLINE

Wer nicht programmieren kann, läuft Gefahr, selbst programmiert zu werden – diese Erkenntnis des US-Autors Douglas Rushkoff treibt Nele Heise um. Die Kommunikationswissenschaftlerin vom Hans-Bredow-Institut für Medienforschung ist auf der re:publica in Berlin, um über "Code Literacy" zu sprechen. Gemeint ist das Verständnis dafür, was Software, was Code und Algorithmen eigentlich tun und wer mit welcher Absicht dahintersteckt. "Digitale Staatsbürgerkunde", nennen es Heise und ihre Mitstreiter.

Code und Algorithmen sind überall, in der Suchmaschine, auf Websites, im Bonuskartensystem der Supermärkte. Die meisten Menschen nutzen die Oberflächen dieser Dienste und Angebote, aber sie wissen nicht, was unter dieser Oberfläche passiert, sagt Heise. Die 28-jährige ist in einem Haushalt ohne Fernseher und Computer aufgewachsen und hat sich ihr Wissen über das, was unter der Oberfläche von Onlinediensten passiert, langsam selbst erarbeitet.

Anzeige

Nun könnte man einwenden, die meisten Menschen würden auch Auto fahren, ohne genau zu wissen, wie ein Verbrennungsmotor funktioniert. Aber es gibt einen wichtigen Unterschied: Code ist nicht wertneutral. Code ist programmiert worden von jemandem mit einer politischen Agenda, einem wirtschaftlichen Ziel oder einem bestimmten Menschenbild. Nele Heise findet, die Nutzer sollten diese Agenda, dieses Ziel, dieses Menschenbild erkennen können, um zu wissen, ob und wie ihr Weltbild beeinflusst wird.

Sie kommt schnell auf Google zu sprechen, vor allem auf den Algorithmus der marktbeherrschenden Suchmaschine. Der berücksichtigt mindestens 200 Faktoren, um ein Suchergebnis individuell auf den jeweiligen Nutzer zuzuschneiden. Wie er das tut, haben Googles Programmierer festgelegt. Kaum jemand weiß, welche Faktoren welche Rolle bei der Gewichtung spielen.

Das sei aber auch nicht entscheidend, findet Heise, es gehe nicht um die letzten Details eines Algorithmus oder einer Software: "Ich glaube nicht, dass der ganz normale Anwender einen Quellcode verstehen oder gar selbst schreiben können muss. Aber er sollte wissen, dass über solche Quellcodes definiert wird, was online möglich ist." In ihrem Workshop bei der re:publica fällt dazu die Bezeichnung "digitale Mündigkeit".

Patrick Beuth
Patrick Beuth

Patrick Beuth ist Redakteur im Ressort Digital bei ZEIT ONLINE. Seine Profilseite finden Sie hier.

Von der kann in Deutschland noch keine Rede sein – das zeigen schon die Reaktionen im Workshop. Wie die Filter und Algorithmen von Google, Facebook und allen anderen Onlinediensten zumindest in ihren Grundzügen funktionieren, wissen selbst hier, auf Deutschlands größter Konferenz zu Netzthemen, beileibe nicht alle. Das wird auch deutlich während der Diskussion von Stephan Noller, Mercedes Bunz und Joerg Blumtritt über "Algorithmen-Ethik". Als Bunz fragt, wer im Saal wisse, warum Google manchmal aktuelle Nachrichten in seinen Suchergebnissen zeigt und manchmal nicht, hebt niemand die Hand.

Noller, Gründer des Targeting-Dienstes nugg.ad, schrieb schon im vergangenen Jahr in der FAZ: "Wenn die 68er-Lehrergeneration ihren Schülern durch Zeitungsanalyse mit Schere und Textmarker beigebracht hat, wie Meinung gemacht wird, müssen die Schüler in der Zukunft verstehen lernen, warum sie auf ihrem Computer eine andere Nachrichtenlage sehen werden als ihr Tischnachbar."

In Berlin fordern er und Bunz aber nicht nur die Vermittlung von Wissen über Codes und Algorithmen schon in der Schule. Noller will auch die Googles und Facebooks dieser Welt in die Pflicht nehmen: "Es braucht eine gesetzliche Verpflichtung für Unternehmen, Algorithmen oder wenigstens deren Prinzipien offenzulegen und kontrollierbar zu machen."

Mit anderen Worten: Google soll erklären müssen, wie es Suchergebnisse gewichtet, Geschäftsgeheimnis hin oder her. "Ein kleiner Button auf der Website, der darauf hinweist, dass ein Ergebnis personalisiert ist, reicht da nicht", findet Noller. Es bestehe "die Gefahr, dass wir den Zugang zu ungefilterten Informationen verlieren, oder zumindest das Wissen über diese Filter".

Leserkommentare
  1. eine "genaue ethische Überprüfung"

    Wer soll prüfen?
    Mit welcher Ethik?
    Die unserer Eliten?
    Die der Gewerkschaften?

    Natürlich kann Google auch heute schon subtil Gesellschaften prägen. Keiner merkt das wirklich. Nachrichten zielgerichtet in den Suchergebnissen platzieren, kein Problem. Es kann nicht um eine Ethische Überprüfung gehen. Es muss eine Offenlegung mit der Möglichkeit der individuellen Einstellung durch die User sein.

    Eine Leserempfehlung
  2. Die Studenten Dragan Espenschied und Alvar Freude setzten an ihrer Hochschule versuchsweise einen Filter vor den internetzugang, der u.a. die Namen Gerhardt Schröder und Helmut Kohl gegeneinander vertauschte, Webseiten veränderte etc.

    Das ergebnis: es fiel nur einem Studenten etwas auf, der Rest nahm die Veränderungen hin, oder bemerkte sie nicht.

    Hier ist die Original EMail von Alvar Freude in der er das Experiment beschreibt:

    http://www.fitug.de/debat...

    Wenn nicht mal Informatik-affinen Menschan an einer Hochschule etwas auffällt - wie soll dann Ottonormaluser subtile Algorithmen bemerken?

    Weitere Literatur: Eli Pariser - The Filter Bubble

    3 Leserempfehlungen
  3. brauche es zumindest verbindliche ethische Grundsätze für die Programmierer – eine Algorithmus-Ethik eben
    -----------------------------------------------

    War für ein Witz. Wie kann nur auf so ein Stuss kommen ! Ja natürlich, als Programmierer werde ich in Zukunft jede Zeile Code von einer Ethikkommission prüfen lassen. Gehts eigentlich noch ? Ich programmiere wie und was ich will und das gleiche Recht hat auch Google, Facebook usw.
    Wem das nicht passt der soll gefälligst seinen eigenen Code, seine eigene Suchmaschine oder sein eigenes social Net programmieren aber nicht ständig über die Werke anderer herum jammern.
    Über das was deutsche Medien und Politiker so für Vorstellungen bzgl. Internet Regulierung haben lachen sich Leute in den USA nur noch kaputt.

    3 Leserempfehlungen
    Reaktionen auf diesen Kommentar anzeigen

    Ich programmiere doch was mein Auftraggeber möchte. Meine Ethik spielt da doch gar keine Rolle. Was der Kunde wünscht wird realisiert. Es sein denn, er wünscht offensichtlich z.B eine illegale Software.

    Maximal ist es Aufgabe des Gesetzgebers hier Maßstäbe zu setzen. Damit sind die jedoch vollends überfordert. Die haben das Problem ja nicht mal erkannt.

    • oooo
    • 06. Mai 2013 21:02 Uhr

    Der Artikel beginnt mit der Aussage, dass zu viele Menschen nicht einmal marginale Grundkenntnisse davon haben, wie Software funktioniert.

    Er driftet dann jedoch ab in semi-politisches Geschwurbel darueber, was Google alles offen legen sollte. Damit erliegt er genau jener technikfeindlichen Grundeinstellung, die in den ersten Absaetzen zurecht beklagt wird.

    Nicht Google ist das Problem, sondern der User, der keine anderen Suchmaschinen kennt. Der nicht weiss, was ein Algorithmus ist und den Unterschied zwischen einem offenen und einem geheimen Protokoll nicht versteht.

    Da hilft kein Schimpfen, nur Bildung.

    3 Leserempfehlungen
  4. Ich programmiere doch was mein Auftraggeber möchte. Meine Ethik spielt da doch gar keine Rolle. Was der Kunde wünscht wird realisiert. Es sein denn, er wünscht offensichtlich z.B eine illegale Software.

    Maximal ist es Aufgabe des Gesetzgebers hier Maßstäbe zu setzen. Damit sind die jedoch vollends überfordert. Die haben das Problem ja nicht mal erkannt.

    5 Leserempfehlungen
    Antwort auf "Oh mein Gott !"
  5. Am Ende wird noch die Psychologie selbst kritisch hinterfragt und untersucht, sogar die Aristotelische Typenlehre in Frage gestellt.
    Na das geht doch etwas zu weit, hmm ?
    Kriterien und deren Verbindungen und Verknüpfungen erfahren zu wollen. So was Unverschämtes.....

    Eine Leserempfehlung
  6. Sind es nicht gerade die medienkompetenten digital na(t)ives, die an "Netzneutralität" glauben, ihren Laufstall aus kommerziellen Kommunikationsdienstleistung als Inbegriff von Freiheit auffassen und nur ausflippen, wenn ihr Provider gut sichtbar eine eigene Latte an den Zaun schraubt?

    Eine Leserempfehlung
  7. Solange wir nicht einmal verstehen, wie unsere eigenen Filter im Gehirn funktionieren, ist die Offenlegung von verwendeten Algorithmen ein Wunschtraum, um dadurch eine "bessere Welt" zu schaffen.
    Sicher trägt das Wissen über die digitalen Algorithmen dazu bei, die vorgefilterte Informationsflut im Internet differenzierter wahrzunehmen, aber darauf haben wir wohl kaum einen Einfluss. Vor allem wird hier ausgeblendet, daß Werbung auf psychologischem Weg versucht, die "Bewußtseinsfilter" unserer Gehirne zu nutzen/zu umgehen.
    Realität ist, was letztlich am Ende der gesamten "Filterkette" bei uns ankommt und wie wir sie durch angeborene und erlernte Kriterien zu interpretieren verstehen. Nicht nur Sender von Informationen sollten ethische Maßstäbe erfüllen, sondern auch Empfänger müssen selbt (ihre erlernten) ethischen Maßstäbe an das Gesendete anlegen, um entsprechende Konsequenzen daraus zu ziehen.

    2 Leserempfehlungen

Bitte melden Sie sich an, um zu kommentieren

  • Artikel Auf einer Seite lesen
  • Quelle ZEIT ONLINE
  • Schlagworte Google | Evgeny Morozov | Software | Suchmaschine | Berlin
Service