Musik zum Anschauen
#1
Musik zum anschauen - ist das nicht ein Wiederspruch per Definition?
Was bewegt Menschen, optische Abbilder für Musik zu suchen?
Ursprünglisch diente doch die Erfindung der Notenschrift der Schaffung reproduzierbarer Tonfolgen.
Sie war also zunächst einmal Datenspeicher, und ein ziemlich genialer noch dazu, weil sie nicht nur die Tonhöhen, sondern auch deren zeitlichen Verlauf und deren Intensität wiedergeben konnte.

Dr. Michael Casey arbeitete bereits an einem Verfahren, das erste Aussagen über die Struktur eines Musikstücks zuläßt. Die von ihm erarbeiteten Soundmodelle erbringen wichtige Zusatzinformationen wie die Ähnlichkeit und Struktur von Musiksegmenten innerhalb eines Stücks.
Die von Casey erarbeiteten optischen Beschreibungen von Musikstücken ignorieren alles, was man gemeinhin mit der Musik verbindet. Rhythmus und Melodie finden sich darin nicht wieder. Statt dessen drücken die Bilder Selbstähnlichkeiten aus, die für aufeinanderfolgende Bruchteile einer Sekunde gelten.
Der Computer vergleicht diese Abtastsegmente. Etwas was sich ähnlich anhört, muß auch im Diagramm ähnlich aussehen. Auf der X- und Y-Achse läuft die Zeit des untersuchten Musikstücks. Drückt man die Ähnlichkeiten der gefundenen Strukturen mit Farben aus, dann bekommt man eine optische Struktur.
Vor 40 Jahren hatte Prof. Wilhelm Fucks seinerseits statische Untersuchungen gemacht, mit denen die Strukturen verschiedener Musikstücke sichtbar wurden.
Auf diese Weise erhält man optische Abbilder der Übergangshäufigkeiten, die je nach Komponist und Musikstück ganz unterschiedlich aussehen.
Das Bachsche Doppelkonzert für zwei Violinen zeigt in der ersten Solostimme, daß Bach nur ganz selten zwei gleiche Töne hintereinander komponierte. Ganz anders der Klassiker Beethoven, der von dieser Tonwiederholung ganz bewußt Gebrauch machte. Beethoven nutzt auch viel spektakulärere Tonübergänge, verwendet also vom möglichen Übergangsspektrum einen viel größeren Teil als Bach. Geht man in die Zwölfton-Musik von Webern, dann verlieren sich die optisch wahrnehmbaren "Komponistenregeln" der beiden Altmeister.

Der Ansatz von Casey geht weiter als der von Fucks. Bei anderer Besetzung des selben Stücks erhält man ein anderes, wenn auch ähnliches Diagramm. Die Soundmodelle sagen sowohl etwas über ein Stück als auch über seine Interpretation aus, sie sind eine Art optisches Wasserzeichen. Keine zwei Interpretationen des gleichen Stücks sind identisch.
So könnte man nach dem Thema eines Liedes suchen oder nach dessen Refrain.
Wer weiß etwas zum Schlüssel dieses Systems, dem heutigen MPEG7-Standard?
Zitieren
#2
Zitat:capstan postete
Wer weiß etwas zum Schlüssel dieses Systems, dem heutigen MPEG7-Standard?
Ich weiß nur, daß


ISO/IEC TR 15938-8, Ausgabe:2002-12
Informationstechnik - Multimedia Inhaltsbeschreibungs-Schnittstelle - Teil 8: Extraktion und Anwendung der MPEG-7

und

ISO/IEC TR 15938-11, Ausgabe:2005-07
Informationstechnik - Beschreibungschnittstelle für Multimediainhalte - Teil 11: MPEG-7 Profilschemata


diese Funktionen wie Du sie beschreibst evtl. enthalten könnten. Nachlesen kann ich sie aber nicht, weil ich nur an DIN-Dokumente herankomme.

Woher stammen überhaupt Deine Infos?
Zitieren
#3
MPEG7 betrifft den Ton ja nur am Rande, es gab aber auf der AES-Conference im Juni 2004 in London eine eigene Sitzung zur MPEG7-Frage, die hochkarätig u.a. mit den Ilmenauern besetzt war.
Mich rührt das alles nicht so besonders an, weil ich zum Bild und den damit verbundenen Moden ein zunehmend gespanntes Verhältnis habe, wohl wissend, dass ich mich damit einmal mehr dem Mainstream und dem ihn umgebenden Zirkus verweigere. Ich habe also Lücken in der Sache. Im Net findet sich manches zum Verfahren, ansonsten kann man sich die Vortragstexte von der AES gegen Kohle schicken lassen. Das europäische Büro für die Publikationen in der Nähe von Paris versieht Michael Williams, derjenige, auf den die Williams-Diagramme zurückgehen. Die Adresse kann ich hervorsuchen, sie steht aber auch im Net irgendwo auf der AES-Seite. Ansonsten:

http://www.aes.org/events/25/overview.html
http://recherche.ircam.fr/equipes/analys...S25_MPEG7/
http://www.nue.tu-berlin.de/publications...-7.HGK.pdf

Dass bei MPEG7 statistische Erhebungen der oben geschilderten Art (ich kenne nur die von Fucks, weil es damals eine Sendung des Bayerischen Rundfunks zur Sache gab...., Caseys Seiten sind im Net zahlreich, aber für den Musikus meines Zuschnitts nicht eben Vertrauen erweckend) eine Rolle spielten, kann ich nicht bestätigen, weil ich nicht in London war und in der Sache mit nur eingeschränkter Neugier ausgestattet bin, s.o. Casey scheint bei der Conference aber nicht als Teilnehmer in Erscheinung getreten zu sein, was gegen eine zentrale Rolle spricht.

Sehe ich mir die Fucksschen Arbeiten an, so gibt er -sofern wir von denselben Dingen sprechen- eine statistische Tonarten- bzw. Tonalitätsverteilung über der Zeit an, die man als grafische Muster sehr schön erkennen kann. Wesentlich anders dürften sich die Einsichten Caseys auch nicht ausnehmen, ich wäre sonst in musikalischer Umgebung über sie gestolpert.

Erkenntnisse dieser Art jedoch kann man -so sehe ich das- weder einem Datenreduktionsverfahren noch einer prinzipiellen Erforschung des Interpretationsphänomens zugrundelegen, insbesondere heute nicht, wo trotz des nun mehr als ein Jahrhundert alten Gedankens der "Werkgerechtigkeit" und 40 Jahren "Alte-Musik-Bewegung" Interpretationen mehr durch Willkür als durch nachvollziehbare Legitimation aus der Urtextpartitur oder den Autografen glänzen. Die Massengesellschaft schlägt auch hier zu, das Wettbewerbsgefasel zwingt jeden Musiker dazu, sich von seinesgleichen abzusetzen, und sei es durch den Mut der Verzweiflung. Das bleibt einsehbar nicht ohne Folgen.

Im Audiosektor gründet auch MPEG7 auf Feldtkeller-Zwicker, dann vor allem auf Jens Blauert und nicht zuletzt auf den Erfahrungen mit mittlerweile drei Generationen von Datenreduktionsverfahren (gut 20 Jahre!) und den durch die digitale Technik dramatisch verbesserten Erfassungs- und Simulationsmöglichkeiten in Akustik und Psychoakustik. Pinzipiell hat sich wenig getan, im Detail aber Ungeheures. Unsere Väter wussten oft, wir wissen nun sehr genau Bescheid, Rechenaufwand stellt für uns heute kein wirtschaftliches Problem mehr dar. Amplitudenstatistik, Frequenzbandbreite, Dynamikumfang, Frequenzverteilung, Umgang mit Redundanzen (heute auch redundanten Rauminformationen) und die Maskierungsphänomene des Ohres bleiben aber nach wie vor die Spielwiesen der Datenreduktionisten. Über nichts anderes wird in einschlägigen Vorträgen gesprochen, sieht man einmal von den schier endlosen, aber handwerklich extrem sorgfältig durchgeführten Hörtests ab, deren erfolgreiche Abwicklung enormes für die Entwicklung vernünftiger Datenreduktionsverfahren geleistet hat. Man hat dazu inzwischen am IRT ja einige Erfahrung (die Fachleute für Datenreduktion und enge Übertragungskanäle sind dort Gerhard Stoll und Susanne Rath).
Interessant ist für uns hier auch, dass die einschlägigen Bibliographien der dabei entstandenen Aufsätze sich nie auf Fucks und Casey beziehen. Es liegen daher wohl zwei Schienen vor, die teilweise parallel verlaufen mögen, aber wohl eher weniger miteinander zu tun haben.

Hans-Joachim
Zitieren
#4
Hans -Joachim, danke für Deine umfangreichen Ausführungen, nebst Links.

Nur so ein Gedanke.
Wenn sich heute Leute mit der optischen Darstellung von Musik beschäftigen, dann hat das doch nicht nur wissenschaftliche Gründe, sondern vielleicht auch komerzielle.

Man könnte einem Computer die Fähigkeit mitgeben, Musikstücke zu identifizieren und zu überwachen, ob z.B. ein Sender ordnungswiedrig gegen Lizenzpflichten verstößt. Man muß nur alle Musikstücke mit einer solch unverwechselbaren optischen Kennung versehen, die für das Musikstück typisch ist, und schon könnte der Computer die Überwachung vornehmen.
Zitieren


Gehe zu:


Benutzer, die gerade dieses Thema anschauen: 1 Gast/Gäste