Wir erleben gerade den dritten Frühling der Künstlichen Intelligenz (KI). Seit der Begriff im Jahr 1956 geprägt wurde, haben uns die Forscher schon ein paarmal versprochen, die Maschinen würden nun wirklich schlau werden. Auf den Frühling folgte aber stets der Winter. Die Versprechen erwiesen sich als haltlos, die Träume verwelkten. Nun aber sieht es wirklich so aus, als könnte das Pflänzchen der KI zu voller Blüte gelangen. Nicht in Form von täuschend menschlichen Robotern, wie sie den Film Ex Machina bevölkern. Die Maschinenintelligenz wird nicht den Menschen imitieren, sondern eine eigene Gestalt annehmen – und in vielen Bereichen wird sie uns überlegen sein.

Im ersten Frühling unterschätzten die Forscher das Problem ganz einfach. 1966 gab der KI-Pionier Marvin Minsky einem Studienanfänger, dem heutigen MIT-Professor Gerald Sussman, über die Ferien eine Übungsaufgabe: Er solle doch einem Computer beibringen, die Objekte, die er sieht, zu beschreiben. Der Student, Gerald Sussman, ist heute (wie Minsky) Professor am MIT, aber das Problem ist immer noch nicht vollständig gelöst. Ein Programm, das Google vor drei Jahren vorstellte, kann immerhin Katzen auf Fotos erkennen – aber es hat immer noch eine sehr große Fehlerrate.

Im zweiten Frühling, in den achtziger Jahren, glaubte man, Computer alltagstauglich machen zu können, indem man ihnen möglichst viele Fakten und die logische Beziehung zwischen ihnen explizit beibrachte. Es gab einige hoffnungsvolle Ansätze sogenannter Expertensysteme, die über Fachwissen auf einem eng begrenzten Gebiet verfügten. Aber sobald es um das Alltagswissen ging, das schon ein dreijähriges Kind beherrscht, mussten die Maschinen passen.

Der neue Frühling, der vor ein paar Jahren begonnen hat, ist deshalb so vielversprechend, weil die Forscher den Computern das Lernen beigebracht haben. Sie müssen ihnen nicht erzählen, dass eine Katze vier Beine, ein Fell, spitze Ohren und einen Schnurrbart hat. Sie zeigen ihnen einfach Millionen von Katzenfotos – es gibt ja genug davon im Internet –, und danach kann der Rechner auch auf neuen Fotos Katzen zuverlässig identifizieren, sogar wenn sie sich hinter einem Sofakissen verstecken und nur ein paar Pfötchen und Schnurrhaare hervorschauen.

Die neue Methode nennt sich "Deep Learning" und ist eigentlich gar nicht so neu: Schon vor 30 Jahren begann man damit, die Architektur des menschlichen Gehirns in sogenannten neuronalen Netzen nachzuempfinden. Diese Netze, bestehend aus elektronischen Nervenzellen und den Verbindungen zwischen ihnen, werden nicht explizit programmiert, sondern anhand von Beispielen trainiert. Aber erst heute ist die Technik so weit, dass wirklich komplizierte Netze im Computer simuliert werden können. Mit riesigen Datenmengen (Stichwort: Big Data) lassen sie sich trainieren, und sie können nicht nur Katzenfotos erkennen: Erstmals dolmetschen solche Netze spontan gesprochene Sätze in Echtzeit in eine andere Sprache. Fahrerlose Autos haben schon Hunderttausende von Kilometern innerhalb und außerhalb der Stadt zurückgelegt. Der IBM-Computer Watson hat nicht nur den menschlichen Champion der Quizshow Jeopardy! geschlagen, sondern stellt jetzt auch medizinische Diagnosen und ist in vielen Fällen menschlichen Ärzten überlegen.