Künstliche Intelligenzwerde uns allen das Leben leichter machen: im Joballtag, wenn wir die passende Bewerberin suchen, Termine planen oder Fragen haben, deren Antwort uns auch Chatbots und digitale Assistenten geben können. Vielleicht werden lernfähige Computerprogramme sogar unsere Lieblingsmusik komponieren. So die Vision der einen. Andere sehen in der KI eine Bedrohung. Algorithmen werden uns manipulieren, uns bei der Jobsuche diskriminieren, Roboter eines Tages unsere Berufe übernehmen – uns also letztlich arbeitslos machen.

Zumindest in einem sind sich alle einig: Dass die Technologien, die unter dem Begriff KI zusammenfallen, kommen werden. Wirtschaftsvertreter fordern deshalb Förderung vom Staat, damit Deutschland im Wettbewerb und die KI-Technologie ganz vorne mit dabei ist. Skeptiker wünschen sich mehr Transparenz, was und wie Computerprogramme eigenständig dazulernen, und dass der Technik Grenzen gesetzt werden. Denn je mehr solche neuronalen Netze können, desto gefährlicher wird es, wenn Menschen ihrem Urteil blind vertrauen.

Die Bundesregierung versucht nun, all das in ihrer Strategie Künstliche Intelligenz zu vereinen, die am Donnerstag in Potsdam von Kanzlerin Angela Merkel und Finanzminister Olaf Scholz vor Journalisten vorgestellt wurde. Einerseits soll Deutschland "zum weltweit führenden Standort in der Entwicklung und Anwendung künstlicher Intelligenz" werden, was es nach Aussage von Merkel von sich "bisher nicht sagen" könne. Andererseits müssten Bürgerrechte geschützt sowie "gesellschaftliche Grundwerte und individuelle Grundrechte" in Zeiten künstlicher Intelligenz gewahrt werden. Ein schwieriger Spagat. Wie genau soll das also funktionieren?

Die Eckpunkte des Papiers haben die drei federführenden Ministerien – Wirtschaft, Forschung und Arbeit – schon im Juli bekannt gegeben – damals lasen sich die Pläne noch eher vage. Auch beinhalten die 80 Seiten noch 31-mal die Begriffe "prüfen" oder "überprüfen". Aber dort, wo der Text konkret wird, verrät die Bundesregierung zumindest ein bisschen über ihren eigenen Blick auf die Vor- und Nachteile künstlicher Intelligenz. Hier die wichtigsten Pläne im Überblick.

Arbeitsplätze und Weiterbildung

Welche Jobs könnten durch KI wegfallen? Und was machen diejenigen, deren Arbeitsplatz verloren geht? Expertinnen und Experten versuchen, das zu beantworten. Das Institut für Arbeitsmarkt- und Berufsforschung (IAB) geht etwa davon aus, dass zwar 1,5 Millionen Jobs bis 2035 überflüssig werden, aber etwa genauso viele neue entstehen könnten. Ähnliche Zahlen nannte Bundesarbeitsminister Hubertus Heil kürzlich der Funke Mediengruppe: Demnach könnten 1,3 Millionen Arbeitsplätze von Maschinen ersetzt werden – der digitale Wandel könne aber auch 2,1 Millionen neue hervorbringen.

Da man für die neuen Jobs anderes können muss als für die alten, müssen sich Menschen weiterbilden oder umgeschult werden. Beschäftigten will die Regierung das ermöglichen und die Kosten teilweise oder vollständig übernehmen. Kleine und mittlere Unternehmen sollen größere Zuschüsse erhalten können. Ein "Deutsches Observatorium für künstliche Intelligenz" soll beobachten, wo und wie KI in den Joballtag übergeht und dafür Leitlinien entwickeln.

Erst einmal klingt all das gut: Die Bundesregierung hat offenbar erkannt, dass Unternehmen oder gar die Arbeitnehmerinnen nicht allein die Kosten dafür tragen können, wenn Maschinen den Arbeitsmarkt umwälzen. Doch wie viel investiert werden soll, wird nicht erwähnt – und zu welchen Bedingungen es Geld gibt, ist nur schwammig formuliert. Wer darf Zuschüsse beantragen? Die Unternehmen? Die Arbeitnehmer?

Zwar ist von einer zügigen Umsetzung der Weiterbildungsstrategie die Rede. Doch zugleich wird erwähnt, dass eben jener Plan erst im Sommer 2019 vorgelegt werden soll. Immerhin: Etwas umsetzen zu wollen, dass noch nicht existiert, ist zumindest ambitioniert.

Konkret wird es interessanterweise in Bezug auf Betriebsräte. Deren frühzeitige Einbindung könne das Vertrauen in die Technologie fördern, heißt es in dem Papier. Die Mitbestimmungsrechte der Mitarbeitervertretungen will die Bundesregierung zum Beispiel in Bewerbungsprozessen sichern: Wenn ein KI-Tool Bewerber aussortieren soll, müsse der Betriebsrat über die Auswahlkriterien mitentscheiden dürfen. Die Detailverliebtheit in diesem Bereich geht so weit, dass sogar einzelne Paragrafen aus Arbeitsgesetzen genannt werden (das ist sonst nur noch an einer weiteren Stelle der Fall).

Deutliches Zeichen: 100 Professuren

Bildung

Damit es nachfolgende Generationen einmal einfacher haben, plant die Bundesregierung einen Digitalpakt Schule. "Allen Schülerinnen und Schülern, die ab dem Schuljahr 2018/2019 eingeschult werden, soll bis zum Ende ihrer Schullaufbahn ein umfassender Kanon digitaler Kompetenzen vermittelt werden", darunter Programmierkenntnisse, die "frühzeitig und flächendeckend" gelehrt werden sollen. Noch recht wenig für einen Kanon.

Gelingen kann das zudem nur, wenn Schulen entsprechend ausgestattet, Lehrende entsprechend geschult sind. Derzeit sieht es in beiden Punkten nicht gut aus. Lehrerinnen und Lehrer sollen deshalb ihre digitalen Kompetenzen durch Hackathons, Workshops und Sommerakademien ausbauen – alles wichtige Dinge, die aber wenig mit KI zu tun haben. Und ob solche Kurse Pflicht werden und das Wissen hinterher abgefragt wird? Ob die Kultusministerien das organisieren oder die Schulen selbst? All das bleibt unbeantwortet. Die Bundesregierung verweist indes erneut auf die noch nicht existente, aber geplante nationale Weiterbildungsstrategie.

Forschung

Ein deutliches Zeichen will die Bundesregierung in der KI-Forschung setzen: 100 neue Professuren sollen entstehen – eine stattliche Zahl. Allerdings beantwortet das Strategiepapier nicht, wann sie kommen, wo sie angesiedelt sein sollen, wie viel Geld dafür bereitsteht. Vor allem aber ist offen, wer den Job machen soll. Schließlich sind KI-Expertinnen und Experten nicht nur in Deutschland selten und gefragt.

Dazu sagte Kanzlerin Merkel auf Nachfrage lediglich: Die erste Voraussetzung sei, dass die Professuren geschaffen und ausgeschrieben würden – selbst wenn man nicht die besten Leute finde. Natürlich hat sie in diesem Punkt recht: Wenn es keine Stellen gibt, können sie auch nicht besetzt werden. Allerdings weist Jan Peters, Professor für Autonome Systeme an der TU Darmstadt, darauf hin, dass es derzeit 15 offene Professuren für künstliche Intelligenz gebe und sie seiner Einschätzung nach schon jetzt nicht durch thematisch erfahrene Forscherinnen sowie Forscher besetzt werden könnten.

Ein ähnliches Problem zeigt sich bei der geplanten Einführung weiterer Kompetenzzentren. Vier davon hatte das Forschungsministerium schon im April angekündigt, laut Strategiepapier sollen es nun zwölf werden. Auch dafür braucht es qualifiziertes Personal. Die Ministerien versprechen ein Gesamtpaket, das Fachkräfte nicht nur mit Geld, sondern auch mit Karrieremöglichkeiten wirbt. Nur wie genau das gelingen soll, bleibt unklar.

Hilfe für Unternehmen

In der Wissenschaft kann die Bundesregierung mit dem Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) schon jetzt ein weltweit renommiertes Institut vorweisen. Dahinter folgt wenig. In der Wirtschaft sieht es ähnlich mager aus: Nur wenige Unternehmen entwickeln bereits künstlich intelligente Anwendungen. Der Transfer zwischen Forschung und Wirtschaft soll daher verbessert, Firmen bei der Entwicklung unterstützt werden. Zum Beispiel sollen 20 KI-Trainer aus den bestehenden Kompetenzzentren Mittelstand 4.0 (das sind nicht die geplanten KI-Zentren) in kleine und mittlere Unternehmen gehen und "jährlich mindestens 1.000 Unternehmenskontakte erzielen".

Man muss der Bundesregierung eines zugestehen: Mit diesem Ansatz könnte man Unternehmen, die keine Kompetenzen im KI-Bereich besitzen, an die Technologie heranführen. Allerdings wäre die Frage, was für Firmen das wären, welche Voraussetzungen sie mitbringen müssten, woher die Trainerinnen stammen sollen und was so ein Training am Ende bringt. Dass die Verantwortlichen zusätzlich Testfelder und Reallabore entwickeln wollen, ist schön und gut. Nur müssen Unternehmen erst einmal Ideen haben, was sie testen könnten.

Manches ist schon heute geklärt

Gefahrenabwehr

Künstliche Intelligenz mag viele Chancen bieten, aber wie jede Technologie werden auch Kriminelle sie nutzen. Man müsse daher Gefahren frühzeitig erkennen, bewerten und Schutzmechanismen entwickeln. Explizit nennt das Papier der Regierung manipulierte und gefälschte Informationen, was man als Anspielung auf die mutmaßliche russische Einflussnahme auf die US-Präsidentschaftswahl 2016 verstehen kann.

Die Nutzung KI-basierter Systeme sei "ein wichtiger Baustein für die digitale Souveränität Deutschlands". Die Bundesregierung erwähnt die Möglichkeit, die Technologie für Datenanalysen in Polizei, Nachrichtendiensten und Bundeswehr einzusetzen, um etwa Personen zu durchleuchten – auch präventiv. KI diene als Instrument, um "Informationen zur Entscheidungsfindung beizusteuern", die ohne sie "nicht in einem adäquaten Zeitrahmen gewonnen werden könnten".

Was nicht drinsteht: welche Daten man genau mit der Technologie auswerten will. Denn KI an sich mag zwar Zusammenhänge aufzeigen, die herkömmliche Ermittlungsmethoden nicht so schnell zutage fördern. Manche Datensätze sind aber derzeit bewusst getrennt. In Hessen ist schon jetzt eine Debatte über die aus Datenschutzgründen bedenkliche Verbindung von Datensilos durch die Software des Unternehmens Palantir ausgebrochen.

Einblicke in die künstliche Intelligenz

Schon Algorithmen sind für Menschen, die nicht gerade an einem arbeiten, unüberschaubar. Wenn neuronale Netze sich künftig also zunehmend selbst programmieren und die künstliche Intelligenz so von alleine immer schlauer wird, verstärkt sich dieser Black-Box-Effekt. Manch einer wünscht sich deshalb mehr Transparenz.

Die Bundesregierung hat auch daran gedacht und will Forschung an der Nachvollziehbarkeit der KI-Technologie fördern. Doch in diesem Punkt hat sie selbst erkannt, dass ein Kompromiss unmöglich wird, wenn Befürworter und Gegner von KI auf ihrem Standpunkt beharren. Was die Regulierung von KI angeht, zeichnet sich schon jetzt eine deutliche Konfliktlinie ab.

Für personenbezogene Daten kann das Kabinett immerhin eine Lösung präsentieren: die DSGVO. Werde jemand diskriminiert, hätte er schließlich schon heute das Recht auf eine menschliche Überprüfung einer automatisierten Entscheidung. Das ist etwas Konkretes in diesem Papier, das ansonsten noch so viele Fragen offenlässt.