Wir Ahnungslosen – Seite 1

Algorithmen und künstliche Intelligenz verheißen Beeindruckendes: eine gerechtere, sicherere und effizientere Welt. Sie können weniger diskriminierend als ein Richter bewerten, ob jemand ins Gefängnis gehört oder nicht. Sie schicken die Polizei dorthin, wo wahrscheinlich bald ein Verbrechen geschieht. Und sie lösen Aufgaben, die für uns Menschen zu komplex sind, beispielsweise Zehntausende Schüler ihren Wünschen entsprechend auf Hunderte weiterführende Schulen zu verteilen. Das ist keine Science-Fiction, sondern in Städten wie New York City längst Alltag. Moderne Technologie soll dort der Schlüssel zu einer besseren Gesellschaft sein. Für den Einzelnen kann das aber auch handfeste Nachteile haben.

In Australien verweigert ein automatisierter Sprachtest einer Muttersprachlerin wegen mangelnder Englischkenntnisse die Einwanderungserlaubnis. Der Grund: ihr irischer Akzent. In Florida empfiehlt ein Algorithmus einem Richter, ein 18-jähriges Mädchen nach einem Fahrraddiebstahl in den Knast zu stecken und einen mehrfach verurteilten Räuber in Freiheit zu lassen. Der Grund: die Hautfarbe der Beteiligten. In den USA bietet die Software von Autoversicherungen Verkehrsrowdys günstigere Tarife an als tadellosen Fahrern. Der Grund: Die Versicherungskosten bemessen sich nicht an ihrem Fahrverhalten, sondern an ihrer Kreditwürdigkeit.

Algorithmen setzen den größten Unfug mit maschineller Präzision um. Auch das ist Realität.

Verantwortlich für das Versagen der Algorithmen sind wir Menschen. Wir definieren ihre Ziele, programmieren ihren Code, entscheiden über ihren Einsatz. Deshalb sollten wir auch ihre Wirkung kontrollieren. Das erfordert mehr algorithmische Kompetenz und mehr ethische Verantwortung: Bei Programmierern, die Software erschaffen. Bei Anwendern, die sie nutzen. Und bei Führungskräften, die sie für ihr Unternehmen oder den Staat beauftragen.

Programmierer kommen immer öfter in Situationen, in denen ein moralischer Kompass unverzichtbar ist. Die Dieselabschalteinrichtung ist nur ein Beispiel: Ist es verwerflich, eine Software zu programmieren, die feststellt, ob sich ein Auto auf der Straße oder auf dem Prüfstand befindet? Wenn man die böse Absicht dahinter kennt: natürlich. Nur so war es den Autoherstellern möglich, die Abgasnormen zu umgehen.

Auch professionelle Nutzer müssen Algorithmen kompetent und reflektiert anwenden. Oft handelt es sich um Assistenzsysteme: Am Ende steht ein Arzt, Richter oder Polizist, der ihre Empfehlungen interpretiert und dann eine Entscheidung fällt. Das Vertrauen in den Computer ist dabei häufig groß. Doch wenn diese Anwender die Ziele und die Wirkungsweise der Technologie nicht kennen, schleichen sich Fehler ein. Die Chicagoer Polizei etwa hat in ihrer täglichen Arbeit eine Software nicht wie vorgesehen zur Prävention, sondern zu Ermittlungszwecken genutzt. Potenzielle Verbrechensopfer wurden so zu Verdächtigen gemacht. Der Algorithmus funktionierte, wurde aber falsch eingesetzt.

Noch kokettieren manche Führungskräfte mit fehlendem Technologie-Verständnis. Dabei ist es Teil moderner Führungsverantwortung, ethisch vertretbare Algorithmen zu garantieren. Das bedeutet auch, bei vermeintlich guten Ergebnissen zu prüfen, wie sie zustande kommen und ob sie Nebenwirkungen haben. Es ist verantwortungslos, wenn etwa die Personalchefin eines US-Konzerns sagt, sie wisse nicht, wie ihre Software zur Bewerberauswahl funktioniere, sondern nur, dass sie funktioniere und die Zahl der Kündigungen zurückgehe. In diesem konkreten Fall beruhten die guten Ergebnisse auf einer sozialen und ethnischen Diskriminierung. Das automatisierte Verfahren bevorzugte Mitarbeiter mit kurzem Arbeitsweg und benachteiligte diejenigen Bevölkerungsgruppen, die sich die höheren Wohnkosten rund um den Firmensitz nicht leisten konnten. Wo Maschinen Menschen bewerten und das Urteil von hoher Tragweite ist, müssen wir dessen Kriterien diskutieren und definieren. Warum kommt der eine Schüler auf seine Wunschschule und der andere nicht? Warum kontrolliert die Polizei in dem einen Bezirk häufiger als in dem anderen? Wir tragen die gesellschaftliche Verantwortung dafür, dass Software, die unser Leben bestimmt, richtig funktioniert und andernfalls so korrigiert wird, dass sie ihren Zweck angemessen erfüllt.

Wenn das nicht möglich ist, dürfen wir vor Verboten nicht zurückschrecken. Auch die künstliche Verdummung künstlicher Intelligenz (KI) ist in einer Demokratie ein legitimes Mittel.

Damit Maschinen den Menschen dienen, sollten wir nicht nur in die KI der Maschinen, sondern auch in die algorithmische Kompetenz der Menschen investieren. Ärzte haben den hippokratischen Eid und Journalisten den Pressekodex. Programmierer brauchen ebenfalls eine Professionsethik. Dabei geht es darum, sicherzustellen, dass unsere analogen Normen und Werte auch in der digitalen Welt gelten. Für den Umgang mit Algorithmen sind Prinzipien nötig, etwa klare Kennzeichnung, Nachvollziehbarkeit, Beherrschbarkeit und eindeutige Verantwortlichkeiten.

Algorithmisches Denken ist die Grammatik der digitalen Gesellschaft

Die gute Nachricht: In der Branche wächst die Sensibilität für die gesellschaftliche Tragweite ihres Tuns. So protestierten Mitarbeiter von Google, als herauskam, dass sie im Projekt Dragonfly faktisch an einer zensierten Suchmaschine für den chinesischen Markt arbeiteten. Und Studierende von Eliteuniversitäten erklärten, Jobinterviews mit dem US-Konzern abzulehnen, falls er die Arbeit an KI-Projekten für das dortige Verteidigungsministerium fortsetzen sollte. Die Proteste zeigten Erfolg, die Projekte liefen aus.

Auch aus solchen Gründen arbeiten viele Konzerne derzeit an ihrer Corporate Digital Responsibility. So wie bei der Corporate Social Responsibility formulieren sie eine freiwillige Selbstverpflichtung, an der sie sich im Umgang mit den digitalen Technologien messen lassen müssen. Eine kompetente Öffentlichkeit, die ethisches Verhalten belohnt und unethisches Verhalten sanktioniert, ist dabei zentral. Für Unternehmen kann so aus einem klaren Bekenntnis zur eigenen Verantwortung ein Wettbewerbsvorteil entstehen, wie die Märkte für fair produzierte Mode oder fair gehandelte Lebensmittel zeigen. Während die USA oder China kommerzielle und technische Vorreiter in Sachen KI sind, sollte Europa auf soziale und ethische Aspekte algorithmischer Systeme als Alleinstellungsmerkmal setzen. Wenn "Made in Germany" traditionell für zuverlässige Produktqualität steht, könnte KI "Made in Europe" zum Markenzeichen für Verantwortung, für innovative und gesellschaftlich förderliche Technologie werden.

Noch herrscht in der Bevölkerung große Unkenntnis: Mehr als die Hälfte der Deutschen weiß kaum etwas über Algorithmen. So wie der Buchdruck zur Alphabetisierung führte, muss jetzt mit den Algorithmen eine "Algorithmic Literacy" einhergehen. Unabhängig von Bildungsstand und Beruf sollte jeder in der Lage sein, den Einsatz solcher Systeme zu erkennen, versiert mit ihnen umzugehen und sich im Zweifel gegen fragwürdige maschinelle Entscheidungen zu wehren.

Programmieren wird deshalb nicht zwingend zum Pflichtfach. Auch in der digitalisierten Arbeitswelt bleibt das ein Job für Spezialisten. Notwendig ist aber ein Verständnis für fundamentale Mechanismen. Nur wer zumindest grob versteht, welche Konzepte hinter Computercodes liegen und welch unterschiedliche Qualität Daten haben können, kann die Wirkung von Algorithmen bewerten. Die Fähigkeit wird zur Kulturtechnik, weil Software uns in fast allen Bereichen des Lebens begegnet, bei der Jobsuche, bei der Versicherung, bei Geldanlagen oder auf Dating-Plattformen.

Wer schon als Kind mithilfe einer simplen visuellen Programmiersprache einem Roboter etwas beigebracht hat, begreift besser, dass Menschen die Maschinen kontrollieren und nicht umgekehrt. Eine solche Erfahrung lässt Vertrauen und gesunde Skepsis gleichermaßen wachsen. Wer hingegen die Maschinen nur passiv nutzt, dem wird dies nicht gelingen.

Algorithmisches Denken ist gewissermaßen die Grammatik der digitalen Gesellschaft: Man braucht sie nicht nur, um eine bestimmte Sprache besser zu sprechen, sondern vor allem, um die Struktur des Gesamtsystems zu verstehen. Großbritannien hat in seiner KI-Strategie konkrete Schritte beschlossen, um "Computational Thinking" systematisch in den schulischen Lehrplänen zu verankern und die Informatiklehrer dafür weiterzubilden.

Nur bei der Jugend anzusetzen genügt allerdings nicht. Algorithmic Literacy erschließt sich für die meisten am besten anhand plakativer Beispiele. Der umstrittene Algorithmus etwa, der den Newsfeed bei Facebook zusammenstellt, ist zwar höchst komplex und streng geheim. Dem Wall Street Journal gelang es trotzdem, seine Funktionsweise zu veranschaulichen. Im amerikanischen Präsidentschaftswahlkampf 2016 stellte die Redaktion zwei Newsfeeds nebeneinander: einen aus typisch republikanischen und einen aus typisch demokratischen Facebook-Foren. So wurde deutlich, wie Facebook seinen Nutzern je nach deren politischer Einstellung zu ein und demselben Vorfall gegenteilige Interpretationen liefert. Dieser einfache visuelle Vergleich war für die Leser vermutlich erhellender als jedes Theorie-Seminar über KI.

Ähnlich wie die Bundeszentralen für politische Bildung oder für gesundheitliche Aufklärung sollte eine neu einzurichtende Bundeszentrale für algorithmische Kompetenz in die Gesellschaft hineinwirken. Sie würde dazu beitragen, dass die öffentliche Debatte jenseits von Verheißungs- oder Horrorszenarios geführt wird.

Auch die moderne Verwaltung ist auf algorithmischen Sachverstand angewiesen. Zum einen, um gemeinwohlförderliche Rahmenbedingungen für das Wirken intelligenter Maschinen zu schaffen. Und zum anderen, um der eigenen Verantwortung als Betreiber all jener Softwares gerecht zu werden, die in Polizei-, Finanz- oder Asylbehörden bereits zum Einsatz kommen. Diese Verantwortung ist eine besondere, weil kein Bürger sich den Entscheidungen des Staates entziehen kann. Den nötigen Kompetenzaufbau in unserer öffentlichen Verwaltung sollte eine zentrale Agentur für algorithmische Systeme vorantreiben. Kein neues Digitalministerium, sondern eine Institution, die dafür sorgt, dass digital für den Staat überall normal wird. Ihr Auftrag wäre, Expertise zu bündeln, Parlamente, Ministerien, Behörden und bei Bedarf auch Gerichte zu beraten sowie algorithmischen Sachverstand auf- und auszubauen.

Damit die Maschinen den Menschen dienen, ist allerorten mehr Algorithmen-Kompetenz nötig. Sie ist der Schlüssel für echtes Vertrauen, dass Mensch und Maschine die Herausforderungen der Zukunft gemeinsam bewältigen können.