Mein erster selbstgemachter Hip-Hop-Beat trifft den Zeitgeist der Soundcloud-Rapper: klare, helle Drums, eine melancholische Synthesizer-Melodie und ein Bass, der gemächlich vor sich hin pocht. Je öfter ich ihn höre, desto mehr nicke ich zufrieden mit dem Kopf. Gleichzeitig weiß ich: "Selbstgemacht" ist schlicht gelogen. Der Beat kommt aus der Software von Amper Music. Komponiert hat ihn eine künstliche Intelligenz (KI) innerhalb weniger Sekunden im Browser.

Kreativität und die Fähigkeit, Kunst zu erschaffen, waren bisher Menschen vorbehalten. Der Archäologe Ian Hodder nannte Kreativität einst den "Raum zwischen der materiellen Wirklichkeit und der Vorstellungskraft, in dem Intelligenz, Anpassungsfähigkeit und Problemlösungen aufeinander treffen". Gleichzeitig ist Kreativität auch ein soziales Phänomen, tief verflochten mit Beziehungen, Kulturen und Erfahrungen.

Man könnte sagen: Kreativität ist all das, was ein Computer nicht ist. Doch durch die Entwicklungen im Bereich der künstlichen Intelligenz bröckelt diese Annahme. In der Fotografie und Videobearbeitung hat KI bereits Einzug erhalten. Die Musikindustrie könnte als Nächstes dran sein – und dabei nicht nur Arbeitsplätze kosten, sondern auch am Selbstverständnis einer ganzen Kreativbranche rütteln.

Komposition auf Knopfdruck

"Die Entwicklung künstlicher Intelligenz ist wie ein Tsunami, der langsam auf uns zurollt", sagt die amerikanische Sängerin Taryn Southern im Gespräch mit ZEIT ONLINE. Statt den Aufprall abzuwarten, stellt sie sich der Veränderung. Southern hat das demnächst erscheinende Album I AM AI aufgenommen. Es wurde fast ausschließlich mit der Software von Amper komponiert. Für Southern, die sich selbst auch als "VR-Angelist" und "Kryptoenthusiastin" bezeichnet, sei es vor allem eine "kreative Herausforderung" gewesen, sagt sie.

Amper verspricht Kompositionen auf Knopfdruck. Wer die noch in der Betaphase befindliche Software nutzt, muss lediglich einige Parameter vorgeben: Welches Genre soll es sein (Hip-Hop, Pop, Rock, Folk), welche Stimmung soll der Song haben (traurig, fröhlich, aufgeregt) und wie lang soll er sein. Anschließend erstellt die KI eine einmalige Melodie. Die Details, was etwa den Klang des Schlagzeugs oder des Synthesizers angeht, können direkt im Browser noch im Detail angepasst und verändert werden.

Wirklich komplette Lieder erzeugt die Software aber nicht. Für I AM AI nahm Southern die Vorschläge von Amper deshalb nur als Ausgangspunkt. Wenn die Software einen Beat komponiert hatte, der ihr gefiel, passte sie ihn an und brachte ihn in eine richtige Songstruktur mit Vers, Chorus und Bridge. Am Ende kamen dann die Texte. "In Sachen Instrumentierung ist Amper schon ziemlich gut", sagt Southern, "aber mit Songstruktur hat die KI noch ihre Probleme und es fehlen noch viele Funktionen." Für die Sängerin bietet Amper vor allem neue Experimentiermöglichkeiten. Der Ablauf von der Idee zum fertigen Lied sei aber letztlich gar nicht so anders, als wenn sie mit einem Produzenten im Studio sitze, sagt sie.

Die Suche nach Klängen, die es noch nicht gibt

Amper aus New York ist eines von zahlreichen Start-ups, die an der Schnittstelle von Musikproduktion und künstlicher Intelligenz arbeiten. In London gibt es Jukedeck, in Berlin sitzt Melodrive, aus San Francisco stammt Humtap, aus Australien kommt Popgun, und auch Google unterhält mit Magenta ein internes Start-up, das Kunst mit KI erschaffen will.

Während sich Jukedeck und Amper an der Funktionsweise traditioneller Musikproduktion orientieren, ermöglicht Humtap, Songs zu erstellen, indem die Nutzer eine Melodie in ihr Smartphone summen oder trommeln. Popgun entwickelt eine KI namens Alice, die in Echtzeit mit den Musikern komponieren und dabei etwa eine Klaviermelodie vervollständigen kann. Ein Magenta-Projekt versucht, verschiedene Instrumente zu kreuzen – und somit Klänge zu ermöglichen, die es zuvor nicht gab.