ZEIT: Wie lösen Sie das Wildschwein-Problem?

Wahlster: Wir arbeiten an der Erzeugung von Trainingsdaten zusammen mit dem TÜV Süd. Dabei werden realistische Szenen in Tausenden Varianten mit Wildschweinen verschiedener Größe und Geschwindigkeit synthetisch erzeugt.

ZEIT: Sie entwickeln eine Simulation, die Computern vorspiegeln soll, es laufe ein Wildschwein auf die Straße, sodass der Computer glaubt, es sei echt, und lernt, mit der Situation umzugehen?

Wahlster: Das ist das Ziel. Wir trainieren den Fahrzeugcomputer dann so, wie es Fluggesellschaften mit Piloten im Flugsimulator tun.

ZEIT: Künstliche Intelligenzen werden im Straßenverkehr auch ethische Entscheidungen treffen müssen. Ein viel zitiertes Beispiel ist dieses: Kinder laufen auf die Straße, und ein autonom fahrendes Fahrzeug hat nur die Wahl, auszuweichen und dann eine Gruppe älterer Menschen zu überfahren – oder eben nicht auszuweichen und die Kinder zu treffen. Wie soll ein Computer da entscheiden?

Wahlster: Das ist eine ethische und rechtliche Frage. Alle autonomen Systeme müssen grundsätzlich so programmiert werden, dass die Vermeidung von Personenschäden immer Vorrang vor Sachschäden hat. Ich wurde von der Bundesregierung erst letzte Woche in die neue Datenethikkommission berufen und kann daher den Ergebnissen hier nicht vorgreifen. In der vorangegangenen Ethikkommission des Verkehrsministers wurde zum Beispiel diskutiert: Wenn ein Auto nicht mehr ausweichen kann, soll es seine bisherige Linie beibehalten.

ZEIT: Also soll der Computer auf eine ethische Entscheidung verzichten. Ist das immer richtig?

Wahlster: Nein, aber eine Quantifizierung von Menschenleben ist unzulässig. Es gibt aber andere Fälle, in denen ethisches Verhalten von KI-Systemen notwendig ist: Denken wir uns ein KI-System als digitalen Assistenten beim Umgang mit Computern. Wenn wir es bitten, uns dabei zu helfen, die Festplatte eines Konkurrenten zu löschen, würde das System es vermutlich können. Aber es sollte dieser Bitte aus ethischen Gründen nicht entsprechen und vielleicht sogar drohen, dass es den Fragesteller anzeigt, wenn er damit fortfährt. Die Informatik ist verpflichtet, für solche Themen Lösungen zu finden.

ZEIT: Was bedeutet KI für die Mitarbeiter von Unternehmen, die diese Technologie einsetzen?

Wahlster: Berufe, bei denen man heutzutage vor allem viel Faktenwissen verknüpfen und anwenden muss, sind gefährdet. Das können KI-Systeme bereits jetzt oder zumindest in einigen Jahren besser. Dasselbe gilt für Routinearbeiten, etwa in der Verwaltung. Gut sieht es für Berufe aus, in denen die Sensomotorik, also die menschlichen Sinne und ihre Kopplung mit Bewegung, eine Rolle spielt – wie im Handwerk. Der Robotik wird es noch lange nicht gelingen, menschliches Niveau zu erreichen, besonders bei neuen und ständig wechselnden Aufgaben. Noch mehr gilt das für Arbeiten, in denen emotionale und soziale Intelligenz gefordert sind.

ZEIT: Das heißt, der Tag, an dem die KI dem Menschen grundsätzlich überlegen ist, ist fern?

Wahlster: Grundsätzlich sehe ich das so. Aber wir müssen differenzieren. Es gibt vier Dimensionen der Intelligenz. Bei der kognitiven Intelligenz, also dort, wo es um Schlussfolgerungen aus gelerntem Wissen geht, sind Maschinen den Menschen zunehmend überlegen, und diese bisher punktuelle Überlegenheit wird sich ausbreiten. Damit werden sich Ausbildungs- und Studiengänge verändern und auch, was wir als besonders wertvoll erachten. In der Medizin etwa herrscht oft noch die Vorstellung vor, dass diejenigen die besten Ärzte werden, die sich die meisten Fälle merken können.

ZEIT: Sind KI-Systeme denn heute schon in der Lage, in lebensentscheidenden Situationen bessere Entscheidungen zu treffen als der Mensch? Zum Beispiel bei einer medizinischen Diagnose?

Wahlster: Ja, das ist so. Wobei dieser Umstand den Menschen nicht herabwürdigt, denn die Systeme treffen ihre Entscheidungen auf der Basis von Wissen, das von Menschen geschaffen wurde und dessen sich die Maschinen bedienen. Nehmen Sie die Software "Watson" von IBM. Deren Empfehlungen, welche Chemotherapie für einen bestimmten Patienten die beste ist, basiert auf der neuesten medizinischen Literatur und Hunderttausenden von Fallbeispielen. Welcher Mediziner kann das von sich behaupten? Und die Entscheidung für eine Therapie trifft letztlich ein Arzt.

ZEIT: Die letzte Entscheidung sollte stets bei einem Menschen liegen?

Wahlster: Es kommt darauf an. Es wird in nächster Zukunft hervorragende Diagnosesysteme geben, die Bagatellkrankheiten so zuverlässig erkennen, dass wir deswegen keinen Arzt aufsuchen müssen.