Künstliche Intelligenz könnte alle Probleme der Menschheit lösen, sagt der Philosoph Nick Bostrom. Zumindest, wenn die Computer uns nicht vorher vernichten.

Die Rettung der Menschheit wird in einer Seitenstraße geplant. Hier befindet sich das Institute for the Future of Humanity der Universität Oxford. Draußen, im englischen Studentenstädtchen, herrscht "Harry Potter"-Heimeligkeit aus Neogotik und Ziertürmen. Drinnen, im Institut: der kalte Modernismus der Resopalplatten und Energiesparlampen. Hinter Glasscheiben mit halb zugezogenen Jalousien krümmen sich Mitarbeiter vor Exceltabellen, die Whiteboards an den Wänden sind übersät mit Graphen, Formeln und Fragen ("Is r + k > o?"). Nick Bostrom, 42, ist Philosophie-Professor und Direktor des Instituts. Er denkt darüber nach, was passiert, wenn Computer klüger werden als Menschen. Werden sie uns vernichten? Kann man das verhindern? Während des Interviews in seinem Büro trinkt Nick Bostrom abwechselnd aus einem Kaffeebecher und aus einem transparenten Maßkrug, in dem sich eine grünliche, algenartige Flüssigkeit befindet. "Ein Power-Smoothie", erklärt Bostrom. "Ersetzt eine vollwertige Mahlzeit."

ZEIT Campus: Herr Bostrom, werden Sie eines Tages von einem Roboter getötet?

Nick Bostrom: Vermutlich ist es wahrscheinlicher, dass ich an einem Herzinfarkt oder an Krebs sterbe. Aber es ist denkbar, ja. Wir haben eine Studie unter Leuten gemacht, die zu Künstlicher Intelligenz (KI) forschen. Viele sind überzeugt, dass wir bis 2075 eine KI erreichen, die menschliches Niveau hat. Das könnte das Ende der Menschheit bedeuten.

ZEIT Campus: Halten Sie das für plausibel?

Bostrom: Absolut. Ich bin bloß skeptisch, was präzise zeitliche Vorhersagen angeht. Die haben sich in der Vergangenheit oft als falsch erwiesen. Es ist auch denkbar, dass wir vorher selber die Erde zerstören. In einem Aspekt ist meine Prognose radikaler als die von anderen: Falls wir den Punkt erreichen, an dem uns die KI ebenbürtig ist, dauert es vermutlich nicht mehr lange bis zur Superintelligenz.

Dieser Text stammt aus dem ZEIT Campus Magazin 3/15, das am Kiosk erhältlich ist.

ZEIT Campus: Was ist die Superintelligenz?

Bostrom: So bezeichne ich jeden Intellekt, der den menschlichen radikal überbietet. Im Bereich der KI gibt es das heute schon, in engen Grenzen. Beim Schachspielen etwa kann kein Mensch mehr mit der maschinellen Intelligenz mithalten.Maschinen sind heute schon schneller, stärker und belastbarer als wir. Es ist nur eine Frage der Zeit, bis sie auch klüger als wir sein werden.

ZEIT Campus: Wie definieren Sie Klugheit?

Bostrom: Als die Fähigkeit, verfügbare Resourcen so einzusetzen, um vorgegebene Ziele bestmöglich zu erreichen.

ZEIT Campus: Und eine Superintelligenz wäre so klug, dass sie jedes Ziel erreicht?

Bostrom: Na ja, die Naturgesetze würden ihr Grenzen setzen – und einige mathematische Probleme sind unlösbar, da hilft auch eine Superintelligenz nicht. Ich stelle mir den Unterschied zwischen dem menschlichen Intellekt und der Superintelligenz so vor wie den zwischen Menschen und Schimpansen.

ZEIT Campus: Bloß weil es sehr gute Schachcomputer gibt, heißt das doch nicht, dass Maschinen jemals so intelligent sein werden wie wir Menschen.

Bostrom: Hier im Institut versuchen wir über die großen Fragen nachzudenken, insbesondere über Gefahren für die ganze Menschheit. Ich halte es für plausibler, dass diese Gefahren vom Menschen ausgehen als von der Natur, also etwa von Asteroiden oder Supervulkanen. Wenn das stimmt, lohnt es sich, darüber nachzudenken, wie man diese Gefahren abwenden kann. Viele Menschen arbeiten heute daran, die KI zu verbessern. Bisher haben es Wissenschaftler aber vernachlässigt, über Sicherheitsrisiken nachzudenken. Deshalb machen wir das.

Nick Bostrom vermutet, dass es nicht nur eine Art gibt, zu denken. Wenn es nicht gelingt, eine Software zu schreiben, die allgemeine logische Schlüsse zieht und sich dabei permanent selbst verbessert, so wie heute Schachcomputer, dann könne es andere Wege zu einer überlegenen KI geben. Das schreibt Bostrom in seinem Buch "Superintelligenz" (Suhrkamp, 2014). Man könnte etwa versuchen, den Aufbau des menschlichen Gehirns vollständig zu scannen und künstlich zu simulieren. Das setzt die notwendige Hardware und fähige Wissenschaftler voraus. Doch sollte es gelingen, so Bostrom, könnte man Gehirne digital kopieren und Millionen von ihnen miteinander verschalten. Ihre Leistung würde vervielfacht. Voilà: die Superintelligenz.