Henry Ford hat es auf den Punkt gebracht: "Denken ist die schwerste Arbeit, die es gibt. Das ist wahrscheinlich auch der Grund, warum sich so wenige Leute damit beschäftigen." Sogar Wissenschaftler lassen zunehmend denken – von künstlichen Intelligenzen (KI) nämlich. Das wäre in Ordnung, wenn die KI tatsächlich intelligent wären. Zwei aktuelle Studien nähren daran Zweifel.

So warnte Genevera Allen von der Rice-Universität in Houston kürzlich davor, der KI allzu sehr zu trauen. Ob Medizin, Astronomie oder autonomes Fahren – überall versuchten Computer aus Massen von Daten Muster und Sinnzusammenhänge zu lesen. Das Problem, sagt Allen: Viele Resultate dieser KI-Forschung könnten nicht reproduziert werden (was allerdings auch ohne KI häufig vorkommt). So kämen weiterführende KI-Studien, die auf neuen Daten basieren, oft zu ganz anderen Ergebnissen. Was am Ende stimmt, bleibt unklar.

Diese Fundamentalkritik passt zu einer Untersuchung, die gerade die Technische Universität Berlin vorgestellt hat. "Wie intelligent ist Künstliche Intelligenz?" Dieser Frage sind die Forscher zusammen mit Kollegen vom Fraunhofer Heinrich-Hertz-Institut nachgegangen. Die Berliner interessierte vor allem, wie genau die KI-Systeme zu ihren Entscheidungen kommen. Konkret gefragt: Ist die Leichtfertigkeit in Ordnung, mit der sich zum Beispiel Ärzte und Patienten schon heute Geräten anvertrauen, von denen nicht klar ist, was genau in ihnen vorgeht?

Was die Forscher entdeckten, war überraschend und in gewisser Hinsicht erschreckend. Die KI-Systeme entscheiden oft nach der Methode "Kluger Hans". Der Kluge Hans war ein Pferd, das am Ende des 19. Jahrhunderts lebte. Angeblich konnte das Huftier von der Rasse Orlow-Traber rechnen. Die Lösungen verkündete es durch Klopfen mit dem Huf oder Schütteln des Kopfes. In Wahrheit aber hatte das Pferd keinen Durchblick, es reagierte lediglich auf den Gesichtsausdruck und die Körpersprache seines Herrn.

Offenbar arbeiten künstliche Intelligenzen häufig ganz ähnlich. Sie orientieren sich an den Vorgaben und Eingaben ihrer Herren. So wurde das Bild eines Bootes von einem Klassifikationssystem für Bilder nicht etwa deshalb als "Schiff" identifiziert, weil es alle Attribute eines Schiffes hatte, sondern weil um das Objekt viel Wasser zu sehen war. Solche KI-Systeme seien für den praktischen Einsatz völlig unbrauchbar, sagt Klaus-Robert Müller von der TU Berlin, sie bärgen sogar enorme Gefahren.

Manchmal ist es also besser, die schwere Arbeit des Denkens dem Menschen zu überlassen – oder die Denkhelfer zumindest zu kontrollieren.