BR-KLASSIK

Inhalt

Musik und Künstliche Intelligenz Partituren von Geisterhand

Apps können komponieren. Softwares erkennen Töne und Akkorde, schreiben Noten, vervollständigen Partituren - alles mit Hilfe von Künstlicher Intelligenz. In Zeiten von ChatGPT & Co ist auch in der Musikbranche KI längst auf dem Vormarsch. Das schürt mitunter Ängste: Werden Notenverlage überflüssig? Verlieren Komponistinnen und Komponisten ihre Arbeit?

Bildquelle: Fabian Stoffers, Julia Müller, Montage BR

Den Beitrag anhören

Es klingt so einfach. Ist es ja auch. Audiodatei hochladen, und ein paar Sekunden später spuckt mir die KI-Software das dazugehörige Notenbild aus. Phänomenal – auf den ersten Blick. Bei genauerem Hinschauen entdeckt man dann aber doch Unterschiede. Die Transkription ist in der Regel nicht identisch mit dem Original. Aber ähnlich. Zum Teil sind die Ergebnisse sogar erstaunlich gut. Um nicht zu sagen: erschreckend gut.

Notenerkennung durch neueste KI-Technologien

Die Software audio2score pro 4 basiert auf den neuesten KI-Technologien. Die können Musikaudios besser verarbeiten als bisherige Programme. Diese Software von Capella erkennt nicht nur Tonhöhen und Akkorde, sondern kann sogar Klangfarben unterscheiden – Streicher, Bläser, Tasteninstrumente. Am besten funktioniert die Verschriftlichung von Klaviermusik. Lädt man beispielsweise "Alla turca" von Mozart hoch, erhält man schon fast eine Abschrift des Originals – vorausgesetzt der Pianist oder die Pianistin hat exakt gespielt. Denn kleine rhythmische Abweichungen werden von der KI auch so aufgeschrieben. Vorschlagsnoten hingegen werden nicht als solche notiert, aber das sind Kleinigkeiten. Insgesamt kann die KI Klaviermusik ziemlich gut verarbeiten. Ähnliche Ergebnisse liefert hier allerdings auch schon die Software piano2notes von Klangio. Haben wir es trotzdem mit einer neuen Wunder-Software zu tun?

KI unterscheidet auch Klangfarben

Screenshot: Wie die Software audio2score pro 4 über das Audio die Noten erkennt  | Bildquelle: BR Screenshot: Wie audio2score pro 4 Beethovens "Frühlingssonate" erkennt. | Bildquelle: BR Die Ergebnisse der Transkription sind unterschiedlich gut – je nach Stück und Besetzung. Bei Beethovens "Frühlingssonate" beispielsweise notiert audio2score die Melodie in der Geigenstimme ziemlich genau, im Klavierpart hingegen fehlen ein paar Noten. Aber die Grundlage ist schon mal sehr gut. Und vor allem deutlich besser als bei herkömmlichen Tools wie etwa dem Melody Scanner von Klangio oder dem Vorläufermodell von Capella. Offensichtlich ist hier wirklich ein wichtiger Schritt in Sachen Audioerkennung mithilfe von KI gelungen. Wunder darf man allerdings auch nicht erwarten.

Lädt man beispielsweise ein Kunstlied hoch, wird man womöglich enttäuscht sein. Schuberts "Gretchen am Spinnrad" etwa ist im Notenbild kaum erkennbar. Die KI hat noch Probleme dabei, die menschliche Gesangsstimme zu erkennen – vor allem, wenn mit starkem Vibrato gesungen wird. Die Analyse der Gesangsstimme behindert außerdem die Erkennung der Instrumentalbegleitung.

Gefahr für Notenverlage?

Ein Stapel Noten mit Kompositionen für Kinder, an Fastnachtsmusik, für Weihnachten, an Unterhaltungsmusik und Klassik.  | Bildquelle: picture alliance/dpa | Andreas Arnold Bedeuten Notenerkennungs-Softwares das Aus für Notenverlage? | Bildquelle: picture alliance/dpa | Andreas Arnold Bedeutet es das Ende für Notenverlage, wenn wir künftig einfach und schnell jedes beliebige Musikstück von einer KI-Software transkribieren lassen können? Immerhin kann man sich das Ergebnis sofort als PDF ausdrucken…  Und wie sieht es mit dem Urheberrecht aus? Darf man die Aufnahme einer copyright-geschützten CD einfach so in der Software hochladen? Da ist die rechtliche Lage zum Teil recht komplex. Deshalb verweisen Programme wie Capella auf die Eigenverantwortlichkeit des Endkunden. Abgesehen vom diesem rechtlichen Aspekt ist auch die technische Entwicklung noch nicht soweit. Bislang liefert keine KI-Software zuverlässig eine wirklich notengetreue Abschrift des Originals. Schon deshalb nicht, weil jedes Audio nur die jeweilige Interpretation abbildet – nicht das Original des Komponisten. Und genau das möchte man in der Regel ja haben. Außerdem trägt ein Herausgeber beispielsweise Legatobögen ein, macht Dynamikangaben und schlägt Fingersätze vor. Und eventuell auch quellenkritische Anmerkungen zum Urtext. Eine exakte Abschrift ist aber auch gar nicht unbedingt das Ziel der Software.

KI erschafft eigenständige Arrangements

"Alla turca" für Streichquartett arrangiert von audio2score pro 4 | Bildquelle: BR Die neue Software-Version von Audio2score arrangiert Stücke auch für andere Besetzung. Hier: Mozarts "alla turca" für Streichquartett. | Bildquelle: BR Die Software audio2score kann aus den erkannten Noten selbst ein Arrangement erschaffen – und zwar auch für eine andere Besetzung: Diese reichen vom Streichtrio bis zum Bläserquintett. Wie wäre es mit Mozarts "alla turca" für Streichquartett? Mit ein paar wenigen Klicks erstellt die KI eine Partitur. Beeindruckend. Auf den ersten Blick erscheint die Verteilung der Noten auf die einzelnen Stimmen auch ganz sinnvoll. Etwas ungewöhnlich vielleicht, dass die Melodie am Anfang auf die beiden Geigen aufgeteilt wird, während die andere Stimme jeweils pausiert. Die zweite Violine beginnt, nach drei Takten führt die erste Violine die Melodie weiter. Offensichtlich war nur die Tonhöhe der aufsteigenden Melodie das Kriterium für den Wechsel der Instrumente. Natürlich ist das, was die KI liefert, keine aufführungsreife Endversion, aber eine Arbeitsgrundlage. So muss man gegebenenfalls die Taktart korrigieren, den Taktschwerpunkt definieren und die einzelnen Stimmen bearbeiten, korrigieren oder ergänzen.

Komponieren mit KI

Was die Künstliche Intelligenz, insbesondere das maschinelle Lernen mit neuronalen Netzwerken auf dem Gebiet der Musik schon jetzt leistet, ist erstaunlich. Tools wie MusicLM, Soundraw oder Aiva komponieren sogar selbst. Sie brauchen lediglich ein paar Vorgaben zu Instrumentierung, Stil etc. – ob in Textform oder über ein Auswahlmenü. Dann erstellt die KI ein entsprechendes Audio. Mithilfe solcher KIs wurden auch Werke wie Schuberts „Unvollendete“ und Beethovens Skizzen zu einer "X. Symphonie" vollendet. Da stellt sich natürlich die Frage: Werden Komponistinnen und Komponisten arbeitslos, wenn Maschinen künftig ihre Arbeit übernehmen? Sollte man die Künstliche Intelligenz auf dem Gebiet der Kunst nicht lieber verbieten? Geht das überhaupt?

Auseinandersetzung unvermeidbar

Notenpapier mit handgeschriebenen Noten | Bildquelle: picture alliance / Zoonar | Ingrid Balabanova Elfenbeinturm ade: KI ist längst Teil unseres Alltags geworden. | Bildquelle: picture alliance / Zoonar | Ingrid Balabanova "Musik oder Kunst muss sich immer irgendwie mit der gegenwärtigen Technologie auseinandersetzen", ist Luc Döbereiner überzeugt. Er ist Professor für Künstliche Intelligenz in Komposition und Klanganalyse an der Musikhochschule Trossingen. Er erforscht unter anderem neuronale Netzwerken, wie sie beim maschinellen Lernen verwendet werden: "Mich interessiert, was wir da drin entdecken können, was sonst vielleicht nicht zum Vorschein kommen würde – im normalen, funktionalen Einsatz dieser Technologie."

Wie funktioniert maschinelles Lernen eigentlich?

Beim maschinellen Lernen werden neuronale Netzwerke aufgebaut. Auf demselben Prinzip basieren auch Softwares wie ChatGPT. Es kann Fragen beantworten, weil es über DeepLearning trainiert wurde – zum Beispiel mit Informationen aus dem Internet. Dabei geht es letztlich immer darum, einen Algorithmus mit Daten zu füttern – in unserem Fall also vor allem mit Kompositionen aus der Barockzeit, Klassik und Romantik. Aus zigtausend Musikbeispielen zieht der Algorithmus Informationen heraus und wendet das Erlernte dann an.

3D-Simulation eines neuronalen Netzwerkes  | Bildquelle: picture alliance / Zoonar | Alexander Limbach 3D-Illustration eines neuronalen Nertzwerkes | Bildquelle: picture alliance / Zoonar | Alexander Limbach Neuronale Netzwerke beim maschinellen Lernen funktionierten ähnlich wie eine Datenübersetzungmaschine. Sie lernt über unzählige Beispiele. "Dadurch wird eine Art Raum geschaffen. Und es ist interessant zu gucken, was eigentlich zwischen diesen Beispielen ist. Man hat also ein Beispiel A, das kann man übersetzen, ebenso ein Beispiel B. Aber man kann auch gucken: Was ist denn zwischen A und B? Was würde das denn dann übersetzen? Und das ist es, was dieses neuronale Netz dann eigentlich kann." Auf Wörter bezogen, könnte man sich das vielleicht so vorstellen: Dur ist zu Major räumlich so angeordnet wie Moll zu Minor. Mit Tönen und Akkorden funktioniert das ähnlich. Durch unzählige Klangbeispiele lernt das neuronale Netz, wie dieser Raum strukturiert ist und was typische Sequenzen sind. "Da kann man dann Dinge abfragen, die man nicht als Beispiele vorgegeben hat. Und das ist eigentlich das Interessante."

Wenn eine neue Komposition über KI generiert wird, muss auch der Zufall eine Rolle spielen. Denn würde auf einen Ton immer der wahrscheinlichste nächste Ton folgen, würde es schnell langweilig klingen. Moderne KI-Methoden arbeiten daher auch mit einem Zufallsprinzip. Dadurch werden hin und wieder auch etwas unwahrscheinlichere Sequenzen generiert – und die Musik bleibt spannend.

Gefahren: Durchschnittsmusik und Ausgrenzung

Entscheidend ist natürlich auch, mit was für Beispielen ein Algorithmus gefüttert wird. Denn durch die Vorauswahl werden natürlich auch bestimmte Musiken und Stile ausgeschlossen. Und darin sieht Luc Döbereiner eine Gefahr in der Anwendung Künstlicher Intelligenz – auch was die neue Notenerkennungs-Software betrifft: "Solche Software kann ja nur eine bestimmte Art von Musik transkribieren. Es wird sicherlich schwierig, wenn man versucht, damit Iannis Xenakis oder Helmut Lachenmann zu verschriftlichen." Denn die neuere Musik bedient sich inzwischen auch anderer Notationweisen. "Dadurch werden dominante Bereiche der Kultur auf eine Art gestärkt, während Randbereiche vielleicht verschwinden. Das ist generell eine gefährliche Tendenz bei dieser Art von KI, die sich auf so große Datensätze stützt: Sie versucht immer im Mittel zu bleiben, während das Besondere vielleicht ein bisschen verloren geht."

Luc Döbereiner | Bildquelle: HfM Trossingen Luc Döbereiner | Bildquelle: HfM Trossingen Die große Gefahr sieht Döbereiner für Gebrauchsmusik im Bereich Pop, Filmmusik oder Computerspiele. Hier wird Musik zunehmend automatisiert erstellt, so dass Arbeitsplätze verloren gehen. Qualität und Originalität aber bleiben bei solchen Massenproduktionen dann auf der Strecke: "Ich glaube, dass wir von einer Art Durchschnitt überschwemmt werden. Von Dingen, die einfach nicht besonders bemerkenswert sind. Das wird, glaube ich, überall vorkommen."

Live-Konzert wieder als Zukunftstrend?

Döbereiner ist auf der anderen Seite aber auch überzeugt, dass auch Live-Konzerte wieder einen Aufschwung erleben werden. Die Präsenz eines Menschen auf der Bühne, der am Instrument auch mal Fehler macht, werde wohl eine Art Gegenpol zu den derzeitigen Entwicklungen darstellen: "Wenn man mit einer Gruppe von Menschen zusammen ist, diese ganze Unmittelbarkeit der Erfahrung der Performance, das wird eigentlich noch wichtiger werden."

KI für’s Lernen nutzen

Künstliche Intelligenz bringt in jedem Fall Errungenschaften mit sich, die man positiv nutzen kann. So betont Döbereiner, dass sich durch die Entwicklung von KI viele Softwares unheimlich gut entwickelt haben. Nun gelte es, die Potenziale solcher Programme richtig zu nutzen - auch was über deren ursprüngliche Funktion hinaus geht: "Ich denke, diese Tools können uns auch dabei helfen, Musik besser zu verstehen. Sie können also auch pädagogisch eine wichtige Rolle spielen." Hier würde die Musikerziehung vor eine große Herausforderung gestellt werden. Es gehe darum, neue Formen des Lernens zu entdecken. "Vielleicht lernt man damit, auf eine bestimmte Art zu hören."

Die Grenzen der KI

Die Sorge vieler Kunstschaffender, dass ihre Arbeitsplätze durch KI bedroht werden, ist durchaus berechtigt. Eine entscheidende Frage ist: Wodurch unterscheidet sich eine Künstliche Intelligenz, die Musik schreiben kann, von einem menschlichen Komponisten oder einer Komponistin? "Als menschliches Subjekt hat man natürlich eigene Wünsche und Vorstellungen. Man nimmt die Musik mit anderen Menschen zusammen wahr. Man hat Emotionen und eine Lebenswelt, die natürlich so eine künstliche Intelligenz überhaupt nicht hat", erklärt Luc Döbereiner. Dennoch könne eine durch KI erzeugte Musik beim Hörer Emotionen auslösen.

Homo Digitalis | Bildquelle: BR Künstliche Intelligenz empfindet selbst keine Emotionen. Und wie steht es um Innovation und Kreativität? | Bildquelle: BR Eine klare Einschränkung sieht Döbereiner aber im Bereich der Kreativität und Innovation. Bislang wird KI beispielsweise genutzt, um Klänge auf ein anderes Instrument zu übertragen oder eine Snare Drum aus einem Mix herauszufiltern. Diese Anwendungen seien jedoch "nicht so wahnsinnig experimentell". Es handle sich vielmehr um technologische Fragen. Ihn als Komponisten interessierten andere Dinge – beispeisweise, wie man mit Klang interagieren oder in Bewegung umsetzen kann. Abwerten will Döbereiner die vorhandenen KI-Softwares aber nicht. Für ihn liegt die Lösung darin, diese vielleicht auch mal anders einzusetzen, als für was sie ursprünglich konzipiert wurden. "Man kann mit allem was Interessantes machen."

Sendung: "Leporello" am 5. Juni 2023 ab 6:05 Uhr auf BR-KLASSIK

Kommentare (0)

Kommentieren ist nicht mehr möglich.
Zu diesem Inhalt gibt es noch keine Kommentare.

    AV-Player