Es war ein ungewöhnlicher Moment der Wahrheit: Bei einem Treffen in Long Beach bei Los Angeles diskutierten kürzlich Fachleute unter Ausschluss der Öffentlichkeit über die Zukunft der künstlichen Intelligenz (KI). Am Ende kam die Frage auf, auf welche minimale Forderung im Umgang mit KI sich die Anwesenden einigen könnten. Dabei schälte sich ein zentrales Anliegen heraus, das alle gleichermaßen umtrieb: Es soll in 50 Jahren noch Menschen geben.

So weit ist es also? Steht tatsächlich das Überleben der Menschheit auf dem Spiel, wenn die Maschinen immer intelligenter werden und vielleicht irgendwann auf diesem Planeten die Macht übernehmen? Oder ist das nur der Horror verwirrter Spinner, die zu viel Science-Fiction gelesen haben und die Möglichkeiten der Technik – wie es schon so oft geschah – grandios überschätzen?

Zwei Dinge sind klar: Erstens, die künstliche Intelligenz entwickelt sich derzeit stürmisch und feiert einen Erfolg nach dem anderen. Zweitens, Digitalkonzerne wie Amazon, Apple, Microsoft, Facebook und Google ("die fürchterlichen Fünf") investieren Milliarden in die Forschung – fast so viel wie der amerikanische Staat insgesamt pro Jahr für die zivile Forschung. Es ist also abzusehen, dass künstliche Systeme immer mehr lernen werden. Das führt unausweichlich zu drei Fragen: Erstens, was werden sie können? Zweitens, was werden sie wollen? Und drittens, was wird aus dem Menschen?

Homo sapiens hat sich von alters her über seine kognitiven Fähigkeiten definiert, über seine angeblich allen anderen Wesen überlegene Intelligenz. Doch jeder Fortschritt der KI nagt an dieser Gewissheit. Dass uns die Maschinen im Schachspiel schlagen, nun gut, daran haben wir uns gewöhnt. Dass sie uns auch im eher intuitiven Go-Spiel schlagen und sich dieses mittlerweile gar selbst beibringen können, lässt sich gerade noch verschmerzen (wer spielt hierzulande schon Go?). Dass sie aber seit vergangenem Jahr dem Menschen selbst im Pokerspiel überlegen sind, irritiert allmählich. Gehört da nicht zum Erfolg der Bluff, ein psychologisches Geschick und eine Menschenkenntnis, die wir den Maschinen nie zugetraut hätten? Was folgt als Nächstes – und wo hört das auf?

Formulieren wir es einmal radikal: Gibt es so etwas wie ein Alleinstellungsmerkmal des Menschen gegenüber den Maschinen und falls ja, worin besteht es? Dabei geht es nicht nur um die Frage, welche Berufe künftig automatisierbar sind, ob die Post noch Briefträger und die Zeitung noch Sportreporter braucht. Vielmehr geht es um die Definition dessen, was Menschsein im digitalen Zeitalter bedeutet. Was ist unser unique selling point, den auch klügste Technik uns nicht streitig machen kann? Gibt es überhaupt einen? Oder werden wir erleben, wie eine humane Bastion nach der anderen geschleift wird?

Dass die Antwort darauf nicht feststeht, macht die Frage besonders reizvoll. Schließlich lehrt sie uns nicht nur etwas über KI, sondern auch über uns Menschen. Deshalb hat die ZEIT Experten unterschiedlicher Disziplinen zu ihren Vorstellungen vom künftigen Verhältnis von Mensch und Maschine befragt. Üblicherweise wird bei diesem Thema auf bekannte Warner wie den Tesla-Gründer Elon Musk oder den jüngst verstorbenen Starphysiker Stephen Hawking verwiesen. Der Haken: Die meisten dieser Kritiker arbeiten gar nicht an künstlicher Intelligenz und werden deshalb von den vielen KI-Forschern nicht ernst genommen. Wir haben daher Experten befragt, die sich tatsächlich täglich mit den Problemen künstlicher (und menschlicher) Intelligenz herumschlagen. Ihre Antworten fielen mal zukunftseuphorisch, mal zutiefst pessimistisch aus und zeigen, wie groß die Bandbreite möglicher Zukünfte ist. Es hilft, sich mit all diesen Eventualitäten zu befassen, um die Frage nach dem Platz des Menschen beantworten zu können. Also auf in die Erkundung unserer eigenen Zukunft!