Was erforscht ein Professor für KI an der München Hochschule für Musik und Theater? Jürgen Moises fragt bei Ali Nikrang nach.

KI in der Musik: Prof. Ali Nikran im Interview

Überall Zauberlehrlinge

ki

Ali Nikrang | © Ars Electronica

Ali Nikrang ist Professor für Künstliche Intelligenz und Musikalische Kreation an der Hochschule für Musik und Theater München. Im Interview spricht er über eigene Projekte sowie Chancen und Risiken der KI.

Münchner Feuilleton: Herr Nikrang, Sie sind neben der Musikhochschule auch am Ars Electronica FutureLab in Linz tätig und befassen sich dort seit vielen Jahren mit Künstlicher Intelligenz. Für einiges Aufsehen sorgte dort 2019 das »Mahler Unfinished Project«. Um was ging es da?
Ali Nikrang: Es ging darum, Gustav Mahlers zehnte Sinfonie zu vollenden. Es ging aber auch darum zu zeigen: Jetzt sind wir in einem neuen Zeitalter. Jetzt haben wir ein System, das Musik so komponieren kann, dass wir nicht mehr sagen können, ob das vom Menschen ist oder von einem Computer. Ich habe ja zuerst Musik studiert, Komposition. Und mein Interesse war immer, wie man die Computerwissenschaft für musikalische Anwendungen benutzen kann. Und ich bin dann sehr schnell zur KI gekommen. Was ich 2019 benutzt habe, war MuseNet von OpenAI. Das war damals erst ein paar Wochen alt. Was wir gemacht haben, war, durch Prompts die KI dazu zu bringen, dass die Musik soweit als möglich wie Mahler klingt.

Das ist fünf Jahre her. Hat sich seitdem viel verändert?
Ja, natürlich. Also erstens haben wir mit »Ricercar« jetzt unser eigenes KI-Modell. Denn wenn man mit KI künstlerisch arbeiten und sie erforschen möchte, dann geht es nicht, dass man ein System benutzt, zu dem man keinen Zugang hat, das man nicht selber trainieren kann. Deshalb entwickle ich seit 2019 mein eigenes System am Ars Electronica Futurelab. Und dieses wird parallel hier an der Hochschule weiterentwickelt und in Projekten eingesetzt. Das geschieht mit zwei Zielsetzungen. Einmal: Wie schafft man es, dass die KI bessere Ergebnisse bringt? Und dann ist die Frage: Wie arbeiten Künstler:innen mit der KI? Denn das merkt man auch bei den Studierenden: Die sind nicht daran interessiert, dass die KI gut imitiert. Sie sind viel mehr interessiert an individuellen Konzepten.

Können Sie Beispiele nennen?
Wir hatten zum Beispiel in Kooperation mit den Münchner Philharmonikern und der Brainlab AG im Oktober ein Konzert, wo es um die Frage ging: Was ist die Rolle von Menschen in einem cokreativen Prozess mit der KI? Da gab es ein Klavierkonzert für ein selbst spielendes Klavier und Streichorchester. Der Orchesterpart kam von Menschen, während der Klavierpart von der KI komponiert wurde. Das heißt: Wir haben die Dualität zwischen Solist und Orchester erweitert durch die Dualität zwischen Mensch und Maschine. Ein jetzt laufendes Projekt ist eine Kooperation zwischen vier Musikhochschulen und dem Ars Electronica FutureLab für das Johann-Strauss-Festjahr 2025 in Wien. Da arbeiten wir an der Schnittstelle zwischen Strauss, KI und moderner Komposition.

Zu Ihrem Unterricht: Was Sie dort lehren, ist vor allem der Umgang mit dem KI-Modell? Oder geht es auch um grundsätzliche Dinge wie: Was ist eine KI?
Das ist eine gute Frage. Vor allem wenn man weiß, dass die KI sich monatlich verändert. Deswegen geht es mir darum, dass die Studierenden eine intuitive Vorstellung davon bekommen, wie das funktioniert. Und das ist bei vielen Modellen sehr ähnlich. Also die Grundidee, wie die KI als eine statistische Maschine Daten generiert. Das wird sich auch in Zukunft nicht so schnell ändern.

Im Pop und noch mehr in der Film- oder Gebrauchsmusik scheint die KI alles infrage zu stellen. Ist das in der klassischen Musik genauso? Da wollen die Leute doch weiter ihr Repertoire und ihre Starsolisten hören.
Ich denke das auch und sehe da keine Gefahr. Weil die KI das alles nicht ersetzen kann. Gleichzeitig muss die klassische Musik nach neuen Wegen suchen. Da kann die KI ein sehr nützliches Tool sein. Und das ist etwas, was die Musikgeschichte immer wieder gezeigt hat: Dass neue Technologien sehr oft zu neuen Ideen, neuen Formaten führen oder zu neuen Möglichkeiten, wie man die Musik wahrnimmt.

Und was würden Sie sagen: Wo geht die Entwicklung hin?
Also, es ist auf jeden Fall wichtig zu überlegen, wie man mit dieser mächtigen Technologie umgeht. Und ich glaube, gerade die Kunst-Community hat hier auch die Aufgabe, diese Auseinandersetzung mitzugestalten. Ansonsten glaube ich: Alles wird viel dynamischer werden. Das Werk ist dann nur noch ein musikalischer Zustand, der mit der KI variiert werden kann. Das heißt: So wie wir jetzt verschiedene Interpretationen von Musikstücken kaufen oder anschauen können, kann dann jede Person ihre eigene, private Interpretation erstellen. Und wenn man schon als Kind mit der KI ein Stück komponieren oder einen Beethoven verändern kann, hat man einen ganz anderen Zugang zur Musik. Dann ist man nicht mehr nur Konsument, sondern auch Schöpfer. ||

Weitere Artikel zum Musikgeschehen in München finden Sie in der aktuellen Ausgabe. Hier geht es zum Kiosk.

 


Das könnte Sie auch interessieren: