Es ist nicht gerade ein Selbstläufer, in Deutschland eine zivilgesellschaftliche Organisation aufzubauen, die sich mit dem technologischen Wandel befasst. Die Digitale Gesellschaft kann ein Lied davon singen, ebenso wie Digitalcourage (ehemals FoeBuD), die Gesellschaft für Freiheitsrechte GFF oder auch iRights.info. Das Interesse der Öffentlichkeit daran, mitreden zu können, wenn es um Netzpolitik, Datenschutz, Überwachung und Urheberrecht geht, ist vorhanden, aber nicht gerade grenzenlos. Die "Hobbylobby" mit "vielleicht 30.000 Leuten" nannte Sascha Lobo die Szene mal.
Seit 2016 gibt es mit AlgorithmWatch eine weitere gemeinnützige Organisation, die sich einem Teilbereich der Digitalisierung widmet: der algorithmischen Entscheidungsfindung (algorithmic decision making, ADM), also der Bewertung von Menschen in Arbeitswelt, Justiz, Kreditvergabe und anderen Bereichen durch Algorithmen und selbstlernende Programme.
Die
Technik macht – nicht zuletzt durch die riesigen Investitionen
US-amerikanischer und chinesischer Unternehmen in die Erforschung
sogenannter künstlicher Intelligenz (KI)
– schnelle Fortschritte. Konkrete
Ideen, wie sie reguliert werden müsste, um einer Welt voller
unfairer, undurchsichtiger und unanfechtbarer Entscheidungen von
Maschinen vorzubeugen, gibt es bisher aber nur wenige. AlgorithmWatch
will sie mitentwickeln, als
Vertreter der Zivilgesellschaft.
Im Manifest
der Initiative mit
dem etwas holprigen Namen heißt
es dazu: "Dass ADM-Prozesse dem Blick derjenigen
entzogen werden, die von ihnen betroffen sind, ist kein Naturgesetz.
Es muss sich ändern."
Gefördert von der Bertelsmann-Stiftung
Noch besteht AlgorithmWatch im Wesentlichen aus vier Personen: dem Journalisten und iRights.info-Mitgründer Matthias Spielkamp, der auf Internet Governance und Datenschutz spezialisierten Forscherin Lorena Jaume-Palasí, dem Datenjournalisten Lorenz Matzat und der Informatik-Professorin Katharina Zweig von der TU Kaiserslautern. (Offenlegung: Spielkamp und Jaume-Palasí sind Fellows des Bucerius-Labs, einer Initiative der ZEIT-Stiftung.) Aber in naher Zukunft soll die gemeinnützige GmbH professioneller aufgestellt werden, mit einer Geschäftsstelle in Berlin-Mitte und einer Geschäftsführung, einem Fundraising-Beauftragten und mit Experten für Algorithmen, die der Öffentlichkeit die Vor- und Nachteile von ADM erklären. Und mit 200.000 Euro von der Bertelsmann-Stiftung für den Aufbau dieser Strukturen.
Die Stiftung hat ein eigenes Projekt zur "Teilhabe in einer digitalisierten Welt", in dem es unter anderem auch um den Umgang mit ADM geht. Einer der Projektverantwortlichen ist Ralph Müller-Eiselt. Im Gespräch mit ZEIT ONLINE sagt er: "Die Digitalisierung kann zu deutlich mehr, wenn es dumm läuft, aber auch zu deutlich weniger Chancengerechtigkeit führen. Wir wollen einen Impuls geben für eine aktivere Zivilgesellschaft. Derzeit wird die Debatte von Partikularinteressen aus der Wirtschaft dominiert." AlgorithmWatch soll eine Art Gegengewicht werden. "Unser gemeinsames Ziel ist es, dass sich AlgorithmWatch mittelfristig eine tragfähige und nachhaltige Struktur erarbeitet, die ohne die Bertelsmann-Stiftung auskommt."
"Unabhängiger Wächter über den Einsatz von Algorithmen"
Müller-Eiselt traut der Organisation zu, "ein unabhängiger Wächter über den Einsatz von Algorithmen" zu werden. Das klingt ein wenig nach jenem Algorithmen-TÜV, den neben Bundesjustizminister Heiko Maas auch Verbraucherschützer und der Big-Data-Experte Viktor Mayer-Schönberger seit Jahren fordern.
Darauf angesprochen, bleibt Spielkamp vorsichtig: "Wir scheuen den Begriff. Einerseits ich finde die Analogie gut, weil der TÜV auf einer rechtlichen Regulierung aufsetzt. Wenn die Autofahrer nicht gezwungen wären, zum TÜV zu gehen, würde es ja niemand machen. Der TÜV hat dann wiederum die technische Kompetenz. Andererseits halten wir es für unrealistisch, algorithmische Systeme für völlig verschiedene Einsatzgebiete von einer Institution großflächig überprüfen zu lassen."
Die algorithmengesteuerte Gesellschaft unter demokratischer Kontrolle
Die Bertelsmann-Stiftung gilt als eher arbeitgebernah und wird mitunter als neoliberal bezeichnet. Spielkamp hält seine Initiative dennoch für unabhängig: "Unsere Fördermittel sind breit gestreut", sagt er. Für ihr Datenspende-Projekt zur Untersuchung des Google-Algorithmus vor der Bundestagswahl haben er und seine Mitstreiter Geld von sechs Landesmedienanstalten bekommen, und im Januar beginnen sie mit einer Untersuchung von automatisiertem Personalmanagement, mit 250.000 Euro gefördert von der gewerkschaftsnahen Hans-Böckler-Stiftung.
Dabei wollen sie in deutschen Unternehmen eine Art Bestandsaufnahme machen: Mit welcher Software wird das Personal gesteuert und wie geschieht das? "Wir sind sehr gespannt, wie auskunftsbereit Unternehmen sind, die solche Systeme anbieten oder einsetzen", sagt Spielkamp.
Auf diese Weise für Transparenz und Aufmerksamkeit zu sorgen, ist auch für Müller-Eiselt ein geeigneter Weg, die Entstehung der algorithmengesteuerten Gesellschaft unter demokratischer Kontrolle zu halten. Gesetzliche Regulierung allein hält er – wie auch Spielkamp – nicht für ausreichend. "Gesetzliche Regulierung wird dem technisch Möglichen immer hinterhereilen", sagt er. Deshalb fordert er auch die Entwicklung einer Professionsethik für Entwickler, ähnlich dem hippokratischen Eid von Medizinern, die Errichtung von Prüf- und Beschwerdeinstanzen sowie Mechanismen, die eine Monopolisierung auf dem Markt für ADM-Systeme verhindern.
Um dabei ein halbwegs gewichtiges Wort mitreden zu können, muss AlgorithmWatch weiter wachsen. Spielkamp will 2018 deshalb zum einen beginnen, Spenden per Crowdsourcing zu sammeln, zum anderen will er Bürgern die Möglichkeit geben, sich ehrenamtlich für seine Organisation zu engagieren. Wie genau das aussehen soll, weiß er allerdings selbst noch nicht.
In die Liga etwa der Electronic Frontier Foundation (EFF), der Bürgerrechtsbewegung in den USA mit rund 50 hauptamtlichen Mitarbeitern, wird AlgorithmWatch damit auf absehbare Zeit ebenso wenig kommen wie die anderen deutschen Digital-Initiativen und -Vereine. Aber alle diese Gruppen konkurrieren um Geld, Zeit und Aufmerksamkeit der Bürger und können nur hoffen, dass die "Hobbylobby" wächst.
Kommentare
Algorithmen entwickeln ein "Eigenleben" - wer kann denn dann noch beurteilen, was richtig oder falsch ist?
Meistens, nicht einmal die Entwickler solcher Programme!
Dazu kommt der schon fast absolute Glauben, diese Programme machen keine Fehler!
Ich mache immer die Erfahrung, wenn ich gegen eine Rechnung oder Bescheid, protestiere, bekomme ich meistens die Antwort: " Alles korrekt - Computer machen keine Fehler!"
Algorithmen tun immer nur das, was man ihnen sagt. Algorithmen machen keine Fehler, Programmierer der Algorithmen machen Fehler.
Das Problem der Filterbubble (egal in welche Richtung) ist von den meisten Leuten noch nicht mal im Ansatz verstanden worden. Vor allem die realitätschaffende Endkonsequenz (Bsp. Flüchtlinge zerstören den sozialen Frieden, was im Endeffekt stimmt, aber nicht wg den Flüchtlingen per se).
Im Prinzip ist eine tendenziöse Presse ebenfalls eine Filterbubble. Propaganda auch. Putin weiss schon was er mit seiner Äußerung über KI meinte.
Natürlich gab es auch früher schon Filterblasen. Aber als mündiger Bürger konnte ich mir ein Urteil bilden. Ich konnte mich entscheiden, ob ich die Zeit oder die Bildzeitung lese.
Bei Facebook entsteht die Filterblase durch einen Algorithmus, den Facebook noch nicht einmal selbst versteht.
Das ist das Problem.
"Algorithmic accoutability" ist ja bereits ein Schalgwort in der Forschung. Dazu gehören:
- geklärte Verantwortung für Algorithmen und Daten (Anbeiterhaftung, Diensteanbieterhaftung)
- Zugang zu verwendeten Algorithmen und Datenbanken für den Rechtsstaat (Offenlegung, Archivierung, Herkunftsnachweise)
- Transparenz bei der Verwendung von Algorithmen und Daten
- digitale Forensik, die nachvollziehen kann wann welche automatisierten Entschediugnen getroffen worden (dieser Punkt ist komplizierter als er klingt: wie stellt man die Version des Algorithmus und der Datenbank zum Entscheidungszeitpunkt wieder her, wenn im Nachhinein ermittelt wird?).
ehrlich, eine volle Historisierung automatischer Entscheidungsprozesse, gesetzlich verordnet, halt ich für unrealistisch, da technisch kaum praktikabel.
Das Problem ist ja nicht nur Speicherplatz. Wenn Sie alles überhaupt speichern müssen, und nicht nur die Zustände, die sie funktional brauchen, wie langsam soll es werden? Wenn Sie nur soviel speichern müssen, damit sie im Prinzip nachvollziehen können, wie wollen sie automatisiert die hinreichende Vollständigkeit der zu speichernden Zustände und Werte ermitteln?
Ich würde ein gesetzliches Überprüfungs-, Widerspruchs- bzw. Korrekturrecht für alle automatisierten Entscheidungen erwarten, wobei die Überprüfung dann vollständig menschlich lesbar sein muss, natürlich mit dem entsprechenden Aufwand.
Gute Initiative, vielleicht mache ich mit.