Noch ist es nicht so weit. "Aber das wird fundamental anders werden, sobald künstliche Organismen Situationsbewusstsein und flexible Entscheidungsmechanismen bekommen", prophezeit von der Malsburg. Dabei gehe es gar nicht so sehr um Intelligenz, sondern eher um das Programmieren jener Instinkte, die uns Menschen von der Evolution mitgegeben wurden – "also Überlebenswille und Besitzstreben und Neugier und so weiter". Tatsächlich wird schon heute in Labors daran gearbeitet, künstlichen Wesen solch eine Motivationsstruktur einzubauen. Dass dies noch gestoppt werden könne, glaubt von der Malsburg nicht.

"Ein einzelner Staat kann natürlich Verbote aussprechen, aber es gibt eben auch immer jene, die sich von der Weiterentwicklung einen Vorteil versprechen und fortgeschrittene künstliche Intelligenz als Waffe einsetzen wollen. Suchen Sie nur einmal im Netz nach dem Stichwort Slaughterbots", empfiehlt von der Malsburg. Das vermittle einen Vorgeschmack auf den drohenden weltweiten Wettlauf um KI-Waffensysteme.

Und wo sehen Sie künftig den Platz des Menschen, Herr von der Malsburg? "Das ist genau der Punkt, der mich seit Monaten in einen Panikmodus versetzt: Wir werden wie Tiere im Zoo leben." Wenn die Blechkisten wirklich klüger und weiser würden, "dann werden sie uns zu unserem eigenen Besten daran hindern, uns die Köpfe einzuschlagen und die Ressourcen zu verbrauchen. Die künstliche Intelligenz wird als wohlwollender Diktator auftreten und uns wie Kinder bevormunden, zu unserem Allerbesten." Rumms.

Während man das noch zu verdauen versucht, kommt eine E-Mail von Nick Bostrom hereingeflogen, dem schwedischen Philosophen, der in Oxford vor den Gefahren der KI warnt. Zur Frage nach dem Alleinstellungsmerkmal des Menschen schreibt er nur einen einzigen Satz: "Wenn es gut ausgeht, werden wir eine ähnliche Rolle spielen wie die Kinder in Disneyland."

Das ist, in anderen Worten, dieselbe Prognose wie die von Schmidhuber und von der Malsburg: Menschen könnten künftig "einfach keine wichtigen Entscheidungsträger mehr" sein. Wir dürften zwar noch empathisch sein und Kunst machen und uns küssen; wohl dürften wir uns auch an Erfindungen versuchen und Fehler machen und unsere Wohnungen allein putzen – die wesentlichen Dinge würden jedoch von einer künstlichen Intelligenz geregelt, die meilenweit über unsere Köpfe hinweg entscheidet.

Wenn einst Computer die Macht übernehmen, werden die Menschen wie Kinder in Disneyland sein – falls sie Glück haben.
Nick Bostrom

An diesem Punkt der Recherche, das muss der Autor eingestehen, ist er selbst in eine zeitweilige Depression versunken. Natürlich gibt es keine Garantie dafür, dass solch erschreckende Prognosen Wirklichkeit werden. Es ist derzeit aber auch nicht erkennbar, dass diese Aussichten die Forschungsbemühungen auch nur einen Deut bremsen würden. Im Gegenteil: Bei den großen Digitalkonzernen tobt ein verbissener KI-Wettlauf, der keinerlei staatlichen Regelung unterworfen ist und keine Furcht vor dem Morgen zu kennen scheint. Digital first, Bedenken second.

Steuern wir also als Gattung sehenden Auges auf den Untergang zu?

Da klingelt doch noch einmal das Telefon, ein Rückruf des Philosophen Thomas Metzinger. Dieser kluge Kopf verfolgt die Fortschritte der Neuro- und KI-Forschung seit drei Jahrzehnten und wird, wie er erzählt, "in letzter Zeit immer mehr in die Debatte über die Ethik der KI reingezogen", ob er wolle oder nicht. "Die Zahl der Anfragen und Einladungen ist einfach überwältigend."

Und zu welchem Urteil ist er gekommen? Teilt er die Besorgnis der Warner, oder hält er deren Szenarien für überzogen? Da sagt Metzinger ganz offen: "Bei mir geht es immer hin und her. Mal sagt eine Stimme in mir: Andere Probleme sind viel drängender, etwa der Klimawandel oder die weltweiten Migrationsbewegungen. Dann wieder denke ich: Nein, wenn die tiefen Netzwerke sich weiter unkontrolliert selbst optimieren, steht irgendwann unsere Existenz auf dem Spiel."

Dass die Entwicklung der künstlichen Intelligenz extreme Risiken mit sich bringe, sei nicht von der Hand zu weisen. Ebenso besorgt Metzinger, "dass unsere politischen Institutionen bei diesem Thema tief schlafen" und das Problem noch nicht einmal richtig erkannt hätten. "Stattdessen schießen nun überall einzelne Institutionen aus dem Boden – wie etwa Bostroms Future of Humanity Institute oder Max Tegmarks Future of Life Institute –, die versuchen, die ethischen Normen im Umgang mit der KI zu definieren." Dabei könne man über ethisch "richtiges" Verhalten ja durchaus streiten.