Anwendungen computerbasierter Musikinterpretationsforschung
Computational Music Performance Research, Applied
Wissenschaftsdisziplinen
Informatik (50%); Kunstwissenschaften (40%); Physik, Astronomie (10%)
Keywords
-
Artifical Intelligence,
Expressive Music Perfromance,
Intelligent Music Processing,
Computational Perception
Das Projekt baut auf langjähriger Grundlagenforschung unseres Teams auf, in der wir verschiedene Aspekte der ausdrucksvollen Musikinterpretation mit neuartigen Computermethoden analysierten und quantitative Computermodelle von Ausdrucksdimensionen wie expressivem Timing, Dynamik, Artikulation entwickelten. Dabei wurden nicht nur interessante neue Einsichten in diese komplexe Kunst gewonnen, sondern auch eine Menge neuer Technologie für die intelligente Musikverarbeitung entwickelt (z.B. Algorithmen für Beat- und Tempo- Tracking, Audio-Audio-Synchronisation, Interpretationsvisualisierung und Interpretationssynthese, um nur einige zu nennen). Das Ziel des aktuellen Projekts besteht darin, diese und andere Methoden so weit zu entwickeln, dass sie effizient und robust genug für echte, komplexe Anwendungen werden. Ausdruck in der Musik mag als unwahrscheinliches Thema für anwendungsorientierte Forschung erscheinen. Tatsache ist aber, dass Computer, die effektiv mit expressiv gespielter Musik (Audio) umgehen können, vollkommen neue und kreative (und kommerziell relevante) Anwendungen. Die im gegenständlichen Projekt geplante Forschung ist von drei solchen visionären Anwendungsszenarien inspiriert: 1. Echtzeit-Visualisierungen großer musikdramatischer Werke auf der Bühne (wie sie im speziellen vom Ars Electronica Center Linz als Auftragswerke auf der ganzen Welt realisiert werden); 2. Synthetischer musikalischer "Ausdruck": Natürlich expressive synthetische Instrumente und virtuelle Orchester; 3. Interaktive Tools für die Musik- und Instrumentaldidaktik und für Musikanalyse. Aus einer Analyse der Anforderungen solcher Anwendungsszenarien leiten wir folgende drei Hauptforschungsziele ab: 1. Ausdrucks-Extraktion: Computermethoden zur automatischen Extraktion präziser Details ausdrucksvoller Interpretation (d.h. Tempo, Timing, Dynamik, etc.) aus Audioaufnahmen, wenn möglich in Echtzeit; das schließt auch Methoden zur präzisen Ausrichtung von Audioaufnahmen und Notentext ein. 2. Ausdrucks-Tracking: Algorithmen zum Verfolgen von Live-Aufnahmen (Audiostreams) und deren automatischer Ausrichtung mit dem Notentext oder vorhandenen Referenzaufnahmen. Diese Methoden sollen auch mit unvollständiger Noten- oder Referenzinformation funktionieren und extrem robust und reaktiv gegenüber Tempoabweichungen, plötzlichen Unterbrechungen, Fehlern etc. sein. Wichtig ist in diesem Zusammenhang auch das Online-Lernen von prädiktiven Tempomodellen. 3. Ausdrucks-Generierung: Computermodelle spezifischer Dimensionen der ausdrucksvollen Interpretation, die die automatische Erzeugung synthetischer Musikaufnahmen ermöglichen, die halbwegs musikalisch und "natürlich" klingen; wenn möglich auch Methoden zum interaktiven Modifizieren und Steuern solcher Aufnahmen. Mehrere potenzielle zukünftige Anwendungspartner - darunter das Ars Electronica Center und die Vienna Symphonic Library - unterstützen diese Forschung (z.B. durch die Bereitstellung von Testdaten und Audiomaterialien), motiviert durch die Aussicht, in Zukunft komplexe musikalische Anwendungsprojekte realisieren zu können.
Ziel des Projekts war die Entwicklung von musikalisch intelligenten Computern, die mit ausdrucksvollen Interpretationen und Aufnahmen von (klassischen) Musikstücken auf nützliche Art und Weise umgehen können. Mit ausdrucksvoller Interpretation meinen wir hier all die Dinge, die MusikerInnen (Sänger, Instrumentalisten) bei einer Aufführung tun, um ein Musikstück zum Leben zu erwecken und ihm einen spezifischen Charakter zu geben also z.B. die Wahl des spezifischen Tempos, expressives Timing (Beschleunigen oder Verlangsamen, Betonen bestimmter Noten oder Akkorde oder Stimmen usw.). Es sollten Computer entwickelt werden, die ein bestimmtes Verständnis für solche Aspekte der Musik besitzen und damit praktische (künstlerische und didaktische) Anwendungen möglich machen wie etwa Live-Visualisierung von Musik und Interpretationen, synthetische Interpreten und virtuelle Orchester, oder didaktische Computertools für die Analyse und das Lehren von Musikinterpretation.Im Projekt wurden eine Reihe neuer Methoden und Algorithmen entwickelt von Computerprogrammen, die ein live gespieltes Stück in Sekundenschnelle identifizieren können, zu Rechnern, die durch ein Mikrofon bei Live-Aufnahmen auf der Bühne zuhören und in Echtzeit die Position der MusikerInnen im Musikstück (Notentext) mitverfolgen, unabhängig vom gewählten Tempo oder davon, ob die MusikerInnen Fehler machen oder gar ganze Teile eines Stücks auslassen. (Diese Technologien können z.B. für Live-Visualisierungen von Musikaufführungen genutzt werden, oder für das synchrone Anzeigen des Notentexts für das Publikum, oder zur Steuerung eines autonomen, vollautomatischen Umblättergeräts für MusikerInnen). Des Weiteren wurden Computerprogramme entwickelt, die ein gegebenes Musikstück mehr oder weniger ausdrucksvoll spielen und es lebendig und (meist) natürlich klingen lassen können. Diese Programme gewannen bei einem internationalen Computer-Klavier-Interpretationswettbewerb (Rencon 2011, Padua), bei dem ForscherInnen ihre Computermodelle von Musikinterpretation miteinander vergleichen, alle relevanten ersten Preise.Einige der oben beschriebenen neuen Technologien sind in prototypischen Realsierungen auf unserem YouTube-Kanal www.youtube.com/user/CPJKU zu sehen.Das Projekt hat damit die Basis für eine ganze Reihe von Nachfolgeprojekten und Kooperationen gelegt, wo die neuen Technologien in realen Anwendungskontexten zum Einsatz kommen werden unter anderem im multinationalen EU-Forschungsprojekt PHENICX (http://phenicx.upf.edu), wo wir mit dem weltberühmten Concertgebouw-Orchester Amsterdam zusammenarbeiten, um klassische Musikkonzerte zu neuartigen multi-medialen Erlebnissen zu machen.
- Universität Linz - 100%
Research Output
- 44 Zitationen
- 19 Publikationen
-
2013
Titel Siarct-Cfp: Improving Precision And The Discovery Of Inexact Musical Patterns In Point-Set Representations. DOI 10.5281/zenodo.1416622 Typ Other Autor Arzt A Link Publikation -
2013
Titel Siarct-Cfp: Improving Precision And The Discovery Of Inexact Musical Patterns In Point-Set Representations. DOI 10.5281/zenodo.1416621 Typ Other Autor Arzt A Link Publikation -
2012
Titel Sound/tracks: artistic real-time sonification of train journeys DOI 10.1007/s12193-011-0089-x Typ Journal Article Autor Knees P Journal Journal on Multimodal User Interfaces Seiten 87-93 -
2012
Titel Linear Basis Models for Prediction and Analysis of Musical Expression DOI 10.1080/09298215.2012.731071 Typ Journal Article Autor Grachten M Journal Journal of New Music Research Seiten 311-322 -
2012
Titel Towards a Complete Classical Music Companion. Typ Journal Article Autor Arzt A Journal Proceedings of the 20th European Conference on Artificial Intelligence (ECAI 2012), Montpellier, France. -
2012
Titel Towards a Complete Classical Music Companion DOI 10.3233/978-1-61499-098-7-67 Typ Book Chapter Autor Arzt Andreas Verlag IOS Press -
2014
Titel The Complete Classical Music Companion v0.9. Typ Conference Proceeding Abstract Autor Arzt A Konferenz Demo paper, 53rd AES Conference on Semantic Audio, Audio Engineering Society, London, Jan -
2014
Titel Bridging the Audio-Symbolic Gap: The Discovery of Repeated Note Content Directly from Polyphonic Music Audio. Typ Conference Proceeding Abstract Autor Collins T Konferenz Proceedings of the 53rd AES Conference on Semantic Audio, Audio Engineering Society, London. -
2012
Titel Expressive Performance Rendering with Probabilistic Models DOI 10.1007/978-1-4471-4123-5_3 Typ Book Chapter Autor Flossmann S Verlag Springer Nature Seiten 75-98 -
2012
Titel Fast Identification of Piece and Score Position via Symbolic Fingerprinting. Typ Conference Proceeding Abstract Autor Arzt A Konferenz Proceedings of the 13th International Society for Music Information Retrieval Conference (ISMIR 2012), Porto, Portugal. -
2011
Titel On the Importance of 'Real' Audio Data for MIR Algorithm Evaluation at the Note-Leve - A comparative Study. Typ Conference Proceeding Abstract Autor Niedermayer B Konferenz Proceedings of the 12th International Society for Music Information Retrieval Conference (ISMIR 2011), Miami, Florida, USA. -
2011
Titel The Vowel Worm: Real-Time Mapping and Visualisation of Sung Vowels in Music. Typ Conference Proceeding Abstract Autor Frostel H Konferenz Proceedings of the 8th Sound and Music Computing Conference (SMC 2011), Padova, Italy. -
2013
Titel Tracking Rests and Tempo Changes: Improved Score Following with Particle Filters. Typ Conference Proceeding Abstract Autor Korzeniowski F Konferenz Proceedings of the International Computer Music Conference (ICMC), Perth, Australia. -
2010
Titel Towards Effective 'Any-Time' Music Tracking. Typ Conference Proceeding Abstract Autor Arzt A Konferenz Proceedings of the Starting AI Researchers' Symposium (STAIRS 2010), Lisbon, Portugal. -
2010
Titel Strategies towards the Automatic Annotation of Classical Piano Music. Typ Conference Proceeding Abstract Autor Niedermayer B Konferenz Proceedings of the 7th Sound and Music Computing Conference (SMC 2010), Barcelona, Spain. -
2010
Titel Robust Real-time Music Tracking. Typ Conference Proceeding Abstract Autor Arzt A Konferenz Proceedings of the 2nd Vienna Talk on Musical Acoustics (VITA 2010), Vienna, Austria. -
2014
Titel What Really Moves Us in Music: Expressivity as a Challenge to Semantic Audio Research. Typ Conference Proceeding Abstract Autor Widmer G Konferenz (Invited Abstract) Proceedings of the 53rd AES Conference on Semantic Audio, Audio Engineering Society, London. -
2010
Titel Simple Tempo Models for Real-time Music Tracking. Typ Conference Proceeding Abstract Autor Arzt A Konferenz Proceedings of the 7th Sound and Music Computing Conference (SMC 2010), Barcelona, Spain. -
2011
Titel Version Detection for Historical Musical Automata. Typ Conference Proceeding Abstract Autor Niedermayer B Konferenz Proceedings of the 8th Sound and Music Computing Conference (SMC 2011), Padova, Italy.