Dass Maschinen beim Spielen gegen Menschen gewinnen, ist eigentlich nicht mehr bemerkenswert. Im Schach tun Computer das schon lange, und auch beim komplexeren Brettspiel Go gewann vor zwei Jahren das Programm AlphaGo gegen einen der besten Spieler. Anfang August besiegte eine von der amerikanischen Non-Profit-Organisation OpenAI entwickelte künstliche Intelligenz (KI) namens Five ein Team aus fünf menschlichen Profispielern im Onlinestrategiespiel "Dota 2". Fast interessanter aber ist, dass OpenAI derselben KI auch eine völlig andere Anwendung beibringen konnte: Sie kann die Finger einer Roboterhand so steuern, dass die mit einem Würfel vorgegebene Kombinationen dreht. Ist Five also eine Etappe auf dem Weg zur Erschaffung genereller künstlicher Intelligenz, die nicht mehr nur einzelne Probleme lösen kann, sondern viele? Ja, sagt Greg Brockman, Mitgründer und Chief Technology Officer (CTO) der wesentlich von Tesla-Chef Elon Musk finanzierten Organisation OpenAI.

ZEIT ONLINE: Herr Brockman, wie sind Sie eigentlich darauf gekommen, dass Ihre KI ein Multitalent sein könnte?

Greg Brockman: Zunächst mal haben wir Five speziell für das Videospiel Dota 2entwickelt. Wir sind dann eher zufällig darauf gestoßen, dass mit Five auch ein Durchbruch bei der Bewegung von Roboterhänden möglich ist. Diese beiden Anwendungen haben vor allem gemein, dass Menschen sie unmöglich programmieren könnten. Es sind einfach zu viele Regeln, nach denen die Software handeln soll, ein zu hohes Maß an Komplexität, um sie als Mensch niederzuschreiben.

ZEIT ONLINE: Wie geht eine künstliche Intelligenz mit Komplexität um?

Greg Brockman hat an der Harvard University Mathematik studiert und am MIT Computerwissenschaften. Das "Forbes"-Magazin führt ihn auf seiner aktuellen Liste der 30 einflussreichsten Tech-Unternehmer unter 30 Jahren. © OpenAI

Brockman: Einfach durch Simulation – man lässt sie wahnsinnig viel rechnen. Algorithmen extrahieren dann die Regeln, nach denen die KI zu handeln hat. Das Wesentliche ist nicht, dass sie dann bei Problem a mit Lösung b reagiert. Sondern dass sie lernt, zu verallgemeinern: Wenn sich ein ähnliches Problem stellt wie a, das aber eben nicht genau Problem a ist, findet sie ebenfalls eine Lösung. Im Fall der Roboterhand haben wir einige Parameter randomisiert: die Größe des Würfels, den Reibungskoeffizienten, einige Aspekte der Umgebung. Das geschah alles in der Simulation. Als wir die Roboterhand dann zum ersten Mal in der realen Welt ausprobiert haben, stellte sich heraus, dass Five auch generalisieren kann, wenn sie in der dinglichen Welt agiert. Five kommt mit veränderten Parametern in einer echten Umgebung klar.

ZEIT ONLINE: Wie aber trainiert man eine KI für ein Computerspiel?

Brockman: Five hat im Zeitraffer Aberhunderte Jahre Dota 2 gegen andere KIs gespielt, bevor sie zum ersten Mal gegen einen Menschen angetreten ist. Da stellte sich heraus, dass die künstliche Intelligenz findet: Menschen verhalten sich seltsam. Ganz anders als KIs. Trotzdem war Five in der Lage, sich auf Menschen einzulassen. Five besitzt so etwas wie Tiefe. Das ist auch nötig, wenn man KIs bauen will, die künftig erhebliche Verantwortung in der realen Welt übernehmen und autonom handeln sollen.

ZEIT ONLINE: Wieso verhalten sich Menschen für eine künstliche Intelligenz merkwürdig?

Brockman: Das zeigt sich auf sehr verschiedene Weise. Ein Beispiel ist die Figurenauswahl bei Dota 2, die Figuren heißen dort Heroes. Wir haben das KI-Interface so gebaut, dass wir selbst sehen können, für wie gut Five die einzelnen Heroes einschätzt. Beim Wettbewerb wählten die menschlichen Spieler ihre erkennbar danach aus, welche besonders populär unter Gamern sind. Die KI hielt das für keine gute Idee, sie suchte sich ihre Heroes entsprechend ihrer eigenen Berechnungen aus, wen sie als leistungsfähig einschätzte. Basierend darauf teilte Five vor der ersten Partie mit, es besitze nur aufgrund der Figurenauswahl beider Seiten bereits eine 95-prozentige Gewinnchance. Was die menschlichen Spieler einigermaßen perplex machte: Ihre Erfahrungen mit den verschiedenen Figuren sprachen eindeutig dagegen – wie konnte die KI derart siegesgewiss sein, obwohl sie scheinbar schwache Heroes gewählt hatte?