"Ein autonom fahrendes Auto erkennt bei Nacht kein Wildschwein"

DIE ZEIT: Saarbrücken ist eines der wichtigsten Zentren für die Erforschung künstlicher Intelligenz auf der Welt. Wie erklären Sie einem Laien, welche Durchbrüche im Saarland erzielt wurden?

Wolfgang Wahlster: Der jüngste Trend, den wir setzen, ist die Team-Robotik. Da geht es um Gruppen von Robotern, die mit Facharbeitern im Team zusammenarbeiten. Wir erforschen das bei und mit Volkswagen und Airbus.

ZEIT: Und was haben Sie schon erreicht?

Wahlster: Unsere Forscher haben in der Sprachtechnologie große Fortschritte erzielt. Nicht zufällig waren führende Leute bei Google Translate ehemalige Mitarbeiter von uns am Deutschen Forschungszentrum für Künstliche Intelligenz. Und Sebastian Thrun, der Entwicklungsleiter des autonom fahrenden Google-Autos, hat ebenfalls seine erste KI-Vorlesung bei mir gehört. Unsere Erkenntnisse, wie man automatisch den Inhalt von Videos erkennt, werden heute von YouTube genutzt. Der dort für die Software zuständige Mann? War auch von meinem Lehrstuhl in Saarbrücken.

ZEIT: Warum gehen Ihre besten Leute in die USA?

Wahlster: Die Mehrzahl bleibt zum Glück hier. Aus unserem Institut, dem DFKI, sind 80 deutsche Unternehmen hervorgegangen, kleine und größere. Wir haben mehrere Hundert Projekte mit der deutschen Industrie verwirklicht, und in vielen Produkten steckt unsere KI-Software. Nur reden wir darüber nicht so laut wie die Amerikaner.

ZEIT: Na ja. Die großen Sprünge in der KI-Anwendung sah man zuletzt in US-Konzernen. Das Google-Auto sprachen Sie bereits an.

Wahlster: Die Forschung in den USA wurde aber auch immer wieder zurückgeworfen, weil die US-Konzerne den Moden folgend ihre Abteilungen aufblähten und zerschlugen. Wir hingegen wachsen kontinuierlich seit 30 Jahren – und stets in enger Zusammenarbeit mit der Industrie. Das DFKI ist eine gemeinnützige GmbH und hat heute 19 Anteilseigner aus der Industrie, unter ihnen SAP, die Telekom, Intel und Bosch. Zuletzt haben wir die Unternehmensberatung Accenture gewonnen.

ZEIT: Wie sieht die Zusammenarbeit konkret aus?

Wahlster: Wir erforschen neue KI-Algorithmen und überlegen, für welche Branche sie interessant sein könnten – und dann suchen wir uns einen Industriepartner. Darüber hinaus bauen die deutschen Automobilkonzerne und deren Zulieferer aber auch ihre KI-Abteilungen aus.

ZEIT: Ist das nicht eher Panik von Nachzüglern?

Wahlster: Bosch, BMW, Daimler und VW haben mehr Patente in Sachen autonomes Fahren als Google und Tesla zusammen. Es gibt beispielsweise einen neuen Prototyp aus dem VW-Konzern, der überholt sogar autonom auf der Autobahn, ohne dass Sie als Fahrer eingreifen. Beim Tesla müssen Sie jedes Mal mit der Hand den Blinker setzen, bevor der Überholvorgang beginnt. So was ist doch kein autonomes Fahren! Tesla tut nur so.

ZEIT: Die deutsche Industrie ist aus Ihrer Sicht also viel weiter, als viele denken?

Wahlster: Ich weiß, dass das so ist! Die Märkte, auf denen Google und Facebook reüssieren, haben wir zwar verloren. Bei werbefinanzierten Plattformen, die vor allem personenbezogene Daten sammeln, holen wir auch nicht mehr auf. Aber Deutschland ist stark im Auto- und Maschinenbau, bei Werkzeug- und Landmaschinen, hochwertigen Haushaltsgeräten sowie in der Medizintechnik. Diese müssen wir stärken: Wir müssen künstliche Intelligenz in unsere Exportschlager injizieren. Wie gut die Aussichten dafür sind, sehen Sie auch daran, dass der amerikanische Landmaschinenhersteller John Deere sein europäisches Entwicklungszentrum ganz in der Nähe des DFKI in Kaiserslautern angesiedelt hat und bei uns Gesellschafter ist.

"Wer diese Entwicklung verpasst, verliert Arbeitsplätze und Wachstum"

ZEIT: Warum ist künstliche Intelligenz eigentlich wichtig für unseren künftigen Wohlstand?

Wahlster: Weil die KI viele Produkte, Dienstleistungen und Berufe radikal verändert. Wer diese Entwicklung verpasst, verliert Arbeitsplätze und Wachstum – und damit Wohlstand.

ZEIT: Welche sind innerhalb der KI-Forschung derzeit die spannendsten Entwicklungen?

Wahlster: Ganz klar das maschinelle Lernen.

ZEIT: Was ist das genau?

Wahlster: Seit über 60 Jahren versucht man, Systeme so zu programmieren, dass sie lernfähig werden. Wir unterscheiden heute zwischen selbstständig lernenden KI-Systemen und wissensbasierten KI-Systemen. Letztere nutzen das bewährte Problemlösungswissen der Menschen, das in computergerechte Modelle und Regeln übersetzt wurde. Das wird etwa in der Medizin eingesetzt. Computer analysieren die Labordaten für einen Patienten und wählen aufgrund von Verknüpfungen ihrer Wissensbasis zum Beispiel eine Antibiotika-Therapie aus. Daraus resultiert ein Therapievorschlag, und das System kann hinterher erklären, wie es zu seinem Ergebnis gekommen ist.

ZEIT: Was heißt hier erklären?

Wahlster: Auf Nachfrage kann das System dem Arzt seinen Lösungsvorschlag plausibel machen, indem es zeigt, auf welchen Datenpunkten, Erkenntnissen, Annahmen und Schlussfolgerungen sein Entscheidungsvorschlag beruht. Das KI-System kann in einen argumentativen Dialog mit dem Menschen eintreten und seine Ergebnisse begründen – das habe ich schon 1981 in meiner Dissertation gezeigt.

ZEIT: Und wie unterscheiden sich diese wissensbasierten Computersysteme von denen, die selbstständig lernen können?

Wahlster: Diese KI-Systeme werden in sehr grober Anlehnung an unser Gehirn konzipiert. Deshalb spricht man auch von neuronalen Netzen. Das sind Systeme miteinander verbundener künstlicher Neuronen. Die Verbindungen haben eine numerische Gewichtung, die während des Trainingsprozesses angepasst wird, sodass ein korrekt trainiertes Netzwerk bei einem zu erkennenden Muster richtig reagiert. Sie lernen also aus Daten, und es entstehen manchmal neuartige Ergebnisse, die der Mensch nicht vorhergesehen hat. Insofern steckt in ihnen etwas Autonomes. Aber diese Systeme können uns leider nicht immer erklären, wie sie zu ihren Ergebnissen kommen.

ZEIT: Wie das?

Wahlster: Sie wollen zum Beispiel ein neuronales Netz zur Erkennung von Gesichtern trainieren. Dann geben Sie ihm Tausende von Bildern und nennen die dazugehörigen Namen, zum Beispiel: Angela Merkel. Das System ist dann in der Lage, typische Merkmale des Gesichts zu erkennen und sich zu merken, damit es das Gesicht der Bundeskanzlerin auf völlig anderen Bildern und aus einer anderen Perspektive ebenfalls erkennt. Das gelingt inzwischen sehr zuverlässig. Aber wie genau der Computer Frau Merkel erkennt, ist nicht nachvollziehbar, weil das durch die Gewichtung von Hunderttausenden möglicher Merkmale in dem Algorithmus passiert.

ZEIT: Finden Sie das nicht beunruhigend?

Wahlster: Ich finde es beunruhigend, dass wir nicht immer genau wissen, wie neuronale Netze ein bestimmtes Resultat erzielen. In unseren aufgeklärten westlichen Gesellschaften akzeptieren Menschen nicht, wenn die Warum-Frage nicht vernünftig beantwortet wird. Mir persönlich geht es genauso. Daher arbeiten unsere Forscher am DFKI mit Hochdruck daran und wurden gerade in den USA für einen neuen Ansatz ausgezeichnet, der aufzeigt, welche Bildregionen für die Erkennung entscheidend waren.

ZEIT: Solche Systeme brauchen enorm viele Bilder oder Daten, um etwas zu lernen. Lassen sich die denn für alle Probleme finden?

Wahlster: Da sprechen Sie ein großes Problem an. Beispielsweise erkennt ein autonom fahrendes Auto bei Nacht kein Wildschwein, das auf die Straße springt, weil wir nicht genug Videomaterial von realen Vorfällen haben. Trainingsdaten sind aber die Voraussetzung für maschinelles Lernen.

"Eine Quantifizierung von Menschenleben ist unzulässig"

ZEIT: Wie lösen Sie das Wildschwein-Problem?

Wahlster: Wir arbeiten an der Erzeugung von Trainingsdaten zusammen mit dem TÜV Süd. Dabei werden realistische Szenen in Tausenden Varianten mit Wildschweinen verschiedener Größe und Geschwindigkeit synthetisch erzeugt.

ZEIT: Sie entwickeln eine Simulation, die Computern vorspiegeln soll, es laufe ein Wildschwein auf die Straße, sodass der Computer glaubt, es sei echt, und lernt, mit der Situation umzugehen?

Wahlster: Das ist das Ziel. Wir trainieren den Fahrzeugcomputer dann so, wie es Fluggesellschaften mit Piloten im Flugsimulator tun.

ZEIT: Künstliche Intelligenzen werden im Straßenverkehr auch ethische Entscheidungen treffen müssen. Ein viel zitiertes Beispiel ist dieses: Kinder laufen auf die Straße, und ein autonom fahrendes Fahrzeug hat nur die Wahl, auszuweichen und dann eine Gruppe älterer Menschen zu überfahren – oder eben nicht auszuweichen und die Kinder zu treffen. Wie soll ein Computer da entscheiden?

Wahlster: Das ist eine ethische und rechtliche Frage. Alle autonomen Systeme müssen grundsätzlich so programmiert werden, dass die Vermeidung von Personenschäden immer Vorrang vor Sachschäden hat. Ich wurde von der Bundesregierung erst letzte Woche in die neue Datenethikkommission berufen und kann daher den Ergebnissen hier nicht vorgreifen. In der vorangegangenen Ethikkommission des Verkehrsministers wurde zum Beispiel diskutiert: Wenn ein Auto nicht mehr ausweichen kann, soll es seine bisherige Linie beibehalten.

ZEIT: Also soll der Computer auf eine ethische Entscheidung verzichten. Ist das immer richtig?

Wahlster: Nein, aber eine Quantifizierung von Menschenleben ist unzulässig. Es gibt aber andere Fälle, in denen ethisches Verhalten von KI-Systemen notwendig ist: Denken wir uns ein KI-System als digitalen Assistenten beim Umgang mit Computern. Wenn wir es bitten, uns dabei zu helfen, die Festplatte eines Konkurrenten zu löschen, würde das System es vermutlich können. Aber es sollte dieser Bitte aus ethischen Gründen nicht entsprechen und vielleicht sogar drohen, dass es den Fragesteller anzeigt, wenn er damit fortfährt. Die Informatik ist verpflichtet, für solche Themen Lösungen zu finden.

ZEIT: Was bedeutet KI für die Mitarbeiter von Unternehmen, die diese Technologie einsetzen?

Wahlster: Berufe, bei denen man heutzutage vor allem viel Faktenwissen verknüpfen und anwenden muss, sind gefährdet. Das können KI-Systeme bereits jetzt oder zumindest in einigen Jahren besser. Dasselbe gilt für Routinearbeiten, etwa in der Verwaltung. Gut sieht es für Berufe aus, in denen die Sensomotorik, also die menschlichen Sinne und ihre Kopplung mit Bewegung, eine Rolle spielt – wie im Handwerk. Der Robotik wird es noch lange nicht gelingen, menschliches Niveau zu erreichen, besonders bei neuen und ständig wechselnden Aufgaben. Noch mehr gilt das für Arbeiten, in denen emotionale und soziale Intelligenz gefordert sind.

ZEIT: Das heißt, der Tag, an dem die KI dem Menschen grundsätzlich überlegen ist, ist fern?

Wahlster: Grundsätzlich sehe ich das so. Aber wir müssen differenzieren. Es gibt vier Dimensionen der Intelligenz. Bei der kognitiven Intelligenz, also dort, wo es um Schlussfolgerungen aus gelerntem Wissen geht, sind Maschinen den Menschen zunehmend überlegen, und diese bisher punktuelle Überlegenheit wird sich ausbreiten. Damit werden sich Ausbildungs- und Studiengänge verändern und auch, was wir als besonders wertvoll erachten. In der Medizin etwa herrscht oft noch die Vorstellung vor, dass diejenigen die besten Ärzte werden, die sich die meisten Fälle merken können.

ZEIT: Sind KI-Systeme denn heute schon in der Lage, in lebensentscheidenden Situationen bessere Entscheidungen zu treffen als der Mensch? Zum Beispiel bei einer medizinischen Diagnose?

Wahlster: Ja, das ist so. Wobei dieser Umstand den Menschen nicht herabwürdigt, denn die Systeme treffen ihre Entscheidungen auf der Basis von Wissen, das von Menschen geschaffen wurde und dessen sich die Maschinen bedienen. Nehmen Sie die Software "Watson" von IBM. Deren Empfehlungen, welche Chemotherapie für einen bestimmten Patienten die beste ist, basiert auf der neuesten medizinischen Literatur und Hunderttausenden von Fallbeispielen. Welcher Mediziner kann das von sich behaupten? Und die Entscheidung für eine Therapie trifft letztlich ein Arzt.

ZEIT: Die letzte Entscheidung sollte stets bei einem Menschen liegen?

Wahlster: Es kommt darauf an. Es wird in nächster Zukunft hervorragende Diagnosesysteme geben, die Bagatellkrankheiten so zuverlässig erkennen, dass wir deswegen keinen Arzt aufsuchen müssen.

"Ich sehe klar die großen Chancen der KI"

ZEIT: Ist Ihnen bei Ihrer Arbeit je der Gedanke gekommen, dass Sie zu weit gehen?

Wahlster: Ich bin kein Science-Fiction-Fan und damit auch nicht von Weltuntergangsfantasien. Ich sehe klar die großen Chancen der KI, weiß aber, dass wir ethische Rahmenbedingungen setzen und beachten müssen. Zum Beispiel bin ich gegen autonome Waffensysteme, ich lehne mit künstlicher Intelligenz gesteuerte Tötungsmaschinen grundsätzlich ab.

ZEIT: Forschen Sie am DFKI an so etwas?

Wahlster: Nein, wir haben eine klare Vereinbarung, die solche Forschungen am DFKI ausschließt.

ZEIT: Andere Forscher tun es. Und insofern ist die Frage nicht nur theoretisch, ob KI-Systeme dem Menschen gefährlich werden – und ob Menschen irgendwann grundsätzlich unterlegen sein werden?

Wahlster: Wir müssen dafür sorgen, dass KI-Systeme ethische Leitplanken berücksichtigen. Es ist aber eine unbegründete Furcht, dass sich die Maschinen irgendwann selbstständig machen und sich eigene Ziele setzen.

ZEIT: Der Humangenetiker Wolfram Henn hat in der FAZ geschrieben, die Zutaten für eine Machtübernahme der Maschinen gebe es schon.

Wahlster: Dem widerspreche ich vehement, weil die KI-Systeme heute ohne die menschliche Alltagsintelligenz nur sehr spezielle Aufgaben übernehmen können und weil ihre Struktur bewusst so angelegt ist, dass sie ein vorgegebenes Hauptziel nicht eigenständig verändern können. Sie können nur verschiedene Wege wählen, um ein vom Menschen gesetztes Hauptziel zu erreichen.

ZEIT: Aber wird es nicht irgendwann einen Herrscher geben, der das Hauptziel entsprechend setzt?

Wahlster: Eines, das die Maschine zum Herrscher macht? Damit würde er sich doch selbst abschaffen.

ZEIT: Und wenn es nun um ein "gutes" Hauptziel geht? Wenn das abstrakte Hauptziel hieße: "Stelle Frieden in Myanmar her." Was dann?

Wahlster: Das ist heute völlig unrealistisch. Ich bin Informatiker und kein Philosoph: Aber in der Theorie haben Sie recht. Wenn es Systeme gäbe, die solche komplexen Aufgaben erfüllen könnten, und Sie dem System ein so langfristiges Hauptziel setzen würden, dann könnte die Maschine als Subziel wählen, auch Menschen zu töten, wenn Sie das nicht explizit ausschließen.

ZEIT: Wir Menschen müssen also der Versuchung widerstehen, einer künstlichen Intelligenz politische, gesellschaftliche oder soziale Ziele zu setzen?

Wahlster: Dieser Versuchung müssen wir widerstehen. Und das werden wir in unseren westlichen Demokratien auch tun, da bin ich sehr zuversichtlich. KI-Systeme werden unser Leben bereichern und helfen, unseren Wohlstand zu sichern. Wir müssen nur den Nutzen für den Menschen immer in den Mittelpunkt der KI-Forschung stellen.