FacebookFlickrGoogleInstagramTeilenSoundcloudTwitterGefällt mirAntwortenRetweetenYouTubeZEIT ONLINENachrichten auf ZEIT ONLINEFacebookMailFacebook MessengertwitterWhatsappZ+

Google und Facebook: Feindbild Algorithmus

Der Wissenschaftliche Dienst des Bundestages erkennt "Bedarf" an einer Regulierung der Algorithmen. Aber schon die seltsame Fixierung auf den Begriff ist irreführend.
Sind Algorithmen wirklich so böse wie er? © Matt Cowan/Getty Images

Das Wort Algorithmus ist mittlerweile so negativ besetzt wie der Name Darth Vader. Algorithmen wird Macht zugesprochen, manchmal sogar "unheimliche Macht". Sie "greifen an" und werden zur mindestens potenziellen Bedrohung erklärt, zu Herrschern über Menschen und Schicksale, zu "Imperien".

Der scheidende Bundesjustizminister Heiko Maas forderte daher im Sommer (nicht zum ersten Mal) ein Transparenzgebot für Algorithmen. Wie nun das Handelsblatt berichtet, erkennt auch der Wissenschaftliche Dienst des Bundestages einen "Bedarf an weiterführenden Regelungen im Bereich der Algorithmenkontrolle". So steht es in einem Gutachten des Dienstes, das auch ZEIT ONLINE vorliegt.

Auf 16 Seiten fassen die Autoren die Rechtslage in Deutschland und derzeit diskutierte Ideen zur zusätzlichen Regulierung von Internetunternehmen an, deren Algorithmen angeblich so unheimlich mächtig sind. Gemeint sind allerdings nur "Algorithmen im Medienbereich", wie schon der Titel der Arbeit besagt. Ausdrücklich legen die Gutachter das "Augenmerk auf Suchalgorithmen beispielsweise von Google und Newsfeed-Algorithmen von sozialen Netzwerken wie Facebook oder LinkedIn", da diese als "zentrale Zugangs-Vermittler von Web-Inhalten" und "eine der wichtigsten Quellen zur kulturellen und politischen Meinungsbildung" von "herausragender Relevanz" seien. "Das Beeinflussungs- und Missbrauchspotential ist bei den dort verwendeten Algorithmen dementsprechend am größten."

Es geht mal wieder nur um Facebook und Google

Gemeint ist, dass Nutzer nicht wüssten, welche Faktoren ihre Suchergebnisse, Werbeeinblendungen und Newsfeed-Sortierungen in welchem Maße beeinflussen und wie das Ergebnis aussähe, wenn es keine oder nur vom Nutzer selbst festgelegte Filter gäbe. Es geht um das Spannungsfeld zwischen den Geschäftsgeheimnissen der Unternehmen und deren fehlende Transparenz, die zur Diskrimierung von Nutzern führen kann.

Die Konzentration auf Google und Facebook mag auf den ersten Blick verengt erscheinen, ist aber letztlich nachvollziehbar. Algorithmische Entscheidungsfindung (ADM, Algorithmic Decision Making) findet zwar längst auch woanders statt, bei der Kredit- und Jobvergabe, bei der Polizei und vor Gericht zum Beispiel. Im Arbeitspapier "Wenn Maschinen Menschen bewerten" stellt die Bertelsmann-Stiftung viele Fallbeispiele vor. Autor Konrad Lischka weist aber auch darauf hin, dass solche Prozesse in Deutschland "noch nicht so präsent" sind.

Google und Facebook aber sind es. Und die europäischen Regierungen und Behörden haben mittlerweile verstanden, dass sie diesen Unternehmen seit Jahren nur hinterherregulieren, statt vorab einen Ordnungsrahmen zu setzen. Im gerade beginnenden Zeitalter dessen, was gemeinhin künstliche Intelligenz (KI) genannt wird und sehr viel mit selbstlernenden Programmen und ADM zu tun hat, soll das nicht noch einmal passieren.

Rückendeckung für ein Algorithmusgesetz

Das Fazit der Gutachter lautet: Die aktuelle Lage im Telemedien-, Rundfunk-, Wettbewerbs- sowie Datenschutzrecht lässt die Nutzer der großen Internetdienste zumindest "nicht schutzlos" dastehen. In der 2018 in Kraft tretenden EU-Datenschutzgrundverordnung etwa heißt es in Artikel 22, Absatz 1: "Die betroffene Person hat das Recht, nicht einer ausschließlich auf einer automatisierten Verarbeitung – einschließlich Profiling – beruhenden Entscheidung unterworfen zu werden, die ihr gegenüber rechtliche Wirkung entfaltet oder sie in ähnlicher Weise erheblich beeinträchtigt".

"Allerdings", so schreiben die Bundestagsexperten, "hat diese Arbeit gezeigt, dass bei der Erreichung des Ziels, das Wissens- und Machtungleichgewicht zwischen Nutzer und Diensteanbieter aufzulösen und gleichzeitig mehr Transparenz und Nutzerautonomie zu schaffen, algorithmenspezifische Gesetzgebung ebenfalls ein gangbarer Weg sein kann." Wer auch immer der Nachfolger von Heiko Maas wird, könnte sich auf das Gutachten berufen, um ein wie auch immer geartetes Algorithmusgesetz vorzuschlagen.

Gutachten: "Offenlegung nicht zielführend"

Die Frage wäre dann nur, was genau reguliert werden sollte. Renate Künast, Bundestagsabgeordnete der Grünen, die das Gutachten in Auftrag gegeben hatte, fordert im Gespräch mit dem Handelsblatt unter anderem, dass Onlineplattformen "die ergebnisrelevanten Kriterien und ihre Gewichtung offenlegen". Eine Formulierung, die so ähnlich schon in einem Positionspapier der Bundesregierung für die EU-Kommission stand. Heiko Maas (SPD) sagte der Zeitung, Nutzer müssten "verlässlich einschätzen können, ob das Netz versucht, sie zu beeinflussen, und sie müssen selbstbestimmt entscheiden können, welche Filter und Personalisierungen sie in der digitalen Welt akzeptieren wollen und welche nicht".

Im Gutachten heißt es dazu allerdings: "Eine Offenlegung des Algorithmus-Quelltextes bzw. seiner Vorgehensweise wäre (…) nicht zielführend", weil das erstens die Geschäftsgeheimnisse der Unternehmen verletzen und zweitens den durchschnittlichen Verbraucher schlicht überfordern würde. Googles Suchergebnisse etwa werden von mindestens 200 Faktoren bestimmt, deren Gewichtung sich jederzeit ändern kann. Auch Facebook verändert seinen Newsfeed-Algorithmus ständig. Eine entsprechende Regulierung müsste daher sicherstellen, dass die Anbieter grundlegende Faktoren und Gewichtungen offenlegen, die sich nicht oder nur wenig ändern und maßgeblichen Einfluss auf die Nutzererfahrung haben. Fallen diese Angaben aber zu allgemein und oberflächlich aus, kann man sich den Ansatz auch gleich sparen.

Bitte auch alle Trainingsdaten offenlegen

Sehr viel komplizierter wird die Situation ohnehin dann, wenn selbstlernende Software im Spiel ist. Die mag einen stabilen Algorithmus beinhalten. Aber eine mögliche Diskriminierung oder ein Manipulationspotenzial könnte sich dann schon aus den gewählten Trainingsdaten ergeben. Eine Transparenzpflicht müsste daher auch eine Offenlegung und unabhängige Überprüfung dieser Datensätze auf einen inhärenten Bias enthalten. Wobei schon die Frage wäre, was für einerseits staatsferne, aber andererseits sanktionsfähige Einrichtung festlegen soll, was "neutral" und gewünscht ist?

Selbstlernende Systeme (deren Geschichte und Funktionsweise wir hier am Beispiel künstlicher neuronaler Netzwerke erklären) verändern die Gewichtung von Faktoren aber auch permanent. Das ist das Wesen ihres Lernens und passiert auf einer so komplexen Ebene, dass nicht einmal ihre Entwickler zu jedem Zeitpunkt wissen, was genau gerade im System vor sich geht. Wege zu finden, in so eine Blackbox zu schauen, ist ein eigenes Forschungsfeld geworden.

Das alles darf natürlich keine Gründe sein, eine Regulierung zum Schutz von Verbrauchern zu unterlassen. Die Debatte darf sich nur nicht so sehr auf den Begriff Algorithmus konzentrieren, der ja eigentlich nur "Handlungsanweisung zur Lösung eines Problems" bedeutet. Matthias Spielkamp von der Initiative Algorithm Watch warnte bereits im Sommer davor und erinnerte daran, dass Algorithmen und Software von Menschen gemacht und von Unternehmen eingesetzt würden, die dem Antidiskriminierungsgesetz unterliegen. Das müsse halt nur durchgesetzt werden.

Startseite