Möglich macht all das nicht ausschließlich, aber vor allem das sogenannte Deep Learning: Mit Datenbanken bestehender Musik trainiert, mit Informationen über Noten, Klangfarben und Rhythmus ausgestattet, beginnt ein künstliches neuronales Netzwerk, von selbst neue Verbindungen zu schaffen. Gleichzeitig bekommt es gesagt, welche dieser Verbindungen auch gut klingen, schließlich sollen sie nicht bloß Krach erzeugen. Die Kreativität entsteht dadurch, dass die Algorithmen nicht nur nach vorgegebenen Mustern eine Melodie erzeugen, was Computer schon seit Jahrzehnten können (frühe Experimente in computergenerierter Musik datieren ins Jahr 1956). Sondern dass sie lernen, eigenständig neue Kombinationen und Melodien zu erschaffen – wie ein Musiker, der im Studio jammt.

Schon jetzt sind die Ergebnisse für die meisten Menschen kaum mehr von einem von Menschen komponierten Song zu unterscheiden. Das Lied Daddy's Car des von der EU mitfinanzierten Start-ups Flow Machines ist ein dreiminütiger Popsong im Stil der Beatles. Bis auf den Gesang wurde er ausschließlich von einer künstlichen Intelligenz komponiert. Liefe Daddy's Car im Radio, würde er ebenso wenig auffallen wie Break Free von Taryn Southern.

Neue Musik für neue Anwendungen

Ist es also nur noch eine Frage der Zeit, bis der erste Top Hit in den Charts von einer KI kommt? Denkbar wäre es, aber vielen Start-ups geht es gar nicht darum, mit ihren Algorithmen die traditionelle Musikproduktion auf höchstem Niveau zu ersetzen und damit Musiker und Produzenten überflüssig zu machen. Ihr Ziel ist es zum einen, die Musik zu demokratisieren. Nutzer von YouTube oder sozialen Medien wie Snapchat könnten die Angebote nutzen, um ihren Inhalten einen individuellen Soundtrack zu verpassen, ohne sich mit Urheberrechten herumschlagen zu müssen. Zum anderen kann KI in Anwendungen eingesetzt werden, in der lineare Musik an ihre Grenzen stößt.

Das glaubt Valerio Velardo, einer der Gründer von Melodrive in Berlin, das sich auf "adaptive Musik" konzentriert, die nicht linear ist, sondern sich an ihre Umwelt und deren Veränderungen anpasst. Szenarien wären etwa interaktive Medien oder Kunstinstallationen, in denen die Musik auf die Bewegungen der Besucher reagiert. Oder VR-Videos und Videospiele. So ist es denkbar, dass der Soundtrack eines Egoshooters auf das Verhalten und die Gesundheit der Spielfigur reagiert. Das könnte die Immersion in virtuellen Welten im Vergleich zu einem statischen Soundtrack verstärken.

Velardo ist überzeugt, dass Computer eines Tages Musik erschaffen können, die der von Menschen in nichts nachsteht. Doch trotz wichtiger Entwicklungen in den vergangenen Jahren sei dieser Zeitpunkt noch weit entfernt. "Musik lässt sich in Einzelteile zerlegen und analysieren, die Bausteine neu zusammensetzen", sagt der ausgebildete Musiker im Gespräch mit ZEIT ONLINE. Doch das führe derzeit lediglich zu einer "explorativen Kreativität": Die Software erkundet neue Wege in bekannten Gebieten. Entscheidend sei der Weg hin zu einer "transformativen Kreativität": Etwas zu erschaffen, was sowohl für die Software selbst als auch die Musikkultur neu ist.

Bis es soweit ist, werden noch Jahre vergehen, glaubt Velardo. Zum einen fehlt es noch an umfassenden Datensätzen, die Musik in all ihren Facetten, Stilen und Eigenarten für eine künstliche Intelligenz lesbar machen. Zum anderen benötige die Branche ein besseres Bild davon, wie Musik eigentlich funktioniert: "Es gibt nur eine Handvoll Menschen, die wirklich beide Sprachen, also sowohl KI als auch Musik sprechen", sagt Velardo. Eine der größten Herausforderungen sei es, tatsächliche Musiker in die Entwicklung einzubeziehen.