Go gehört zu den ältesten Brettspielen der Welt.

Am 10. Februar 1996 verlor der damalige Schachweltmeister Garri Kasparow zum ersten Mal eine Partie gegen den Computer Deep Blue. Fast auf den Tag genau 20 Jahre später hat Google nun im Wissenschaftsmagazin Nature verkündet, sein Programm AlphaGo habe den dreifachen europäischen Go-Meister Fan Hui mit 5:0 geschlagen.

"Das ist das erste Mal, dass ein Computerprogramm einen menschlichen professionellen Spieler in einem vollständigen Go-Spiel besiegt hat", heißt es in Googles Paper, "ein Kunststück, von dem man glaubte, dass es noch mindestens ein Jahrzehnt dauern würde."

Seit rund 50 Jahren arbeiten Forscher und Unternehmen an Computern und Programmen, die menschliche Spieler in dem uralten Brettspiel aus China schlagen können. Mit bisher mäßigem Erfolg, denn Go ist trotz seiner wenigen Regeln deutlich komplexer als Schach. Das liegt zum einen daran, dass es in Go viel mehr mögliche Stellungen gibt, nämlich ungefähr 2,08 mal 10^170. Die genaue Zahl hat 171 Stellen. Zum anderen spielen Topspieler mitunter intuitiv, was ihre Züge sehr schwer berechenbar macht. 

Seit gut 50 Jahren treten Go-Programme gegen Menschen an

Im Jahr 1968 gewann ein Programm des US-Computerwissenschaftlers Albert Lindsey Zobrist erstmals eine Partie gegen einen Amateurspieler, das Paper von Zobrist findet sich hier. Seither gab es zahlreiche Matches zwischen guten bis professionellen Spielern und Computern und immer mal wieder gewann eine Maschine beziehungsweise ein Programm eine einzelne Partie, wenn auch nur unter bestimmten Vorbedingungen wie Startvorteilen oder einem verkleinerten Spielbrett.

Der 5:0-Sieg von AlphaGo gegen Fan Hui unter Normalbedingungen (hier sind die Partien Zug für Zug zu sehen) ist deshalb ein Meilenstein. Die Partien fanden bereits im Oktober des vergangenen Jahres statt, in den Londoner Büros des zu Google gehörenden Unternehmens DeepMind, das maßgeblich für AlphaGo verantwortlich ist. Aber erst jetzt verraten Google und DeepMind, was ihr Programm so stark macht.

Wie andere Go-Programme auch basiert es zum einen auf der sogenannten Monte Carlo tree search, mit der aus jeder Stellung heraus sehr viele zufällige Züge simuliert und diese theoretischen Partien zu Ende gespielt werden. So lernt das Programm, seine aktuelle Stellung zu bewerten. "Aber anders als andere Monte-Carlo-Programme benutzt AlphaGo neuronale Netzwerke, um seine Suche nach dem bestmöglichen nächsten Zug einzugrenzen", heißt es in einem Blogpost von Google.

Training mit 30 Millionen Go-Spielzügen

Zunächst trainierten die Forscher ein neuronales Netzwerk mit 30 Millionen Spielzügen, bis es menschliche Züge mit einer Wahrscheinlichkeit von 57 Prozent voraussagen konnte. Dann ließ es dieses System Tausende Male gegen sich selbst spielen, wodurch es durch einen Versuch-und-Irrtum-Ansatz neue Strategien entwickelte. So entstand ein policy network, das sinnvoll erscheinende Züge vorschlägt, also die Breite des Suchbaums einschränkt.

Mit dem policy network wiederum wurde ein zweites neuronales Netzwerk trainiert, das value network. Dieses ist in der Lage, aus jeder Go-Position heraus den wahrscheinlichen Gewinner zu ermitteln. So reduzierte das Team von Google und DeepMind die Tiefe des Suchbaums.

Zusammen genommen sind diese Netzwerke "viel menschenähnlicher als frühere Ansätze", sagt Google, und so stark, dass AlphaGo 494 von 495 Testspielen gegen andere Go-Programme gewinnen konnte – und schließlich auch den menschlichen Profi besiegte. Im März kann AlphaGo beweisen, dass es immer so stark spielt. Dann tritt es gegen den Weltmeister Lee Sedol an.

Facebook spielt noch auf Amateurniveau

Ein anderer denkbarer Gegner könnte irgendwann Facebook sein. Denn auch Facebook arbeitet an künstlichen Intelligenzen, die Go spielen. Allerdings ist Google der Konkurrenz in dieser Hinsicht derzeit ein paar Schritte voraus, es wäre ein ungleiches Match.

Dabei geht es beiden Unternehmen nicht primär darum, das Spiel endgültig zu knacken. Google schreibt in seinem Blog: "Letztlich wollen wir diese Techniken auf reale Probleme anwenden. Wir hoffen, dass sie eines Tages so ausgebaut werden können, dass sie uns helfen, einige der drängendsten und schwierigsten gesellschaftlichen Probleme anzugehen, von Klimavorhersagen bis zur komplexen Analyse von Krankheiten."