Home Digital Humanities in der Musikwissenschaft – Computergestützte Erschließungsstrategien und Analyseansätze für handschriftliche Liedblätter
Article Publicly Available

Digital Humanities in der Musikwissenschaft – Computergestützte Erschließungsstrategien und Analyseansätze für handschriftliche Liedblätter

  • Manuel Burghardt EMAIL logo
Published/Copyright: June 1, 2018

Zusammenfassung

Der Beitrag beschreibt ein laufendes Projekt zur computergestützten Erschließung und Analyse einer großen Sammlung handschriftlicher Liedblätter mit Volksliedern aus dem deutschsprachigen Raum. Am Beispiel dieses praktischen Projekts werden Chancen und Herausforderungen diskutiert, die der Einsatz von Digital Humanities-Methoden für den Bereich der Musikwissenschaft mit sich bringt.

Abstract

This article presents an ongoing project for the computer-based transcription and analysis of handwritten music scores from a large collection of German folk tunes. Based on this project, I will discuss the challenges and opportunities that arise when using Digital Humanities methods in musicology.

1 Einleitung

Die Verfügbarkeit und der Einsatz von digitaler Technologie in nahezu allen Bereichen des öffentlichen und privaten Lebens ändert auch in fundamentaler Weise wissenschaftliche Methoden und Forschungspraxen und läutet damit den Computational Turn[1] ein. In zunehmendem Maße wird die wissenschaftliche Arbeit durch digitale Technologien vermittelt und beeinflusst, was sich nach und nach auch auf die epistemologischen und ontologischen Grundannahmen der einzelnen Disziplinen auswirkt.[2] Mit der steigenden Verfügbarkeit digitalisierter Kulturartefakte in unterschiedlichsten Medienbereichen – sei es Text, Bild, Musik oder Video – und damit einhergehender computergestützter Analyseansätze haben sich im Spannungsfeld von Geisteswissenschaften und Informatik die Digital Humanities als eigener Teilbereich herausgebildet.

Während der Einsatz computergestützter Methoden in Fächern wie der Sprachwissenschaft (vgl. etwa die Korpuslinguistik) und der Literaturwissenschaft (vgl. Distant Reading[3]) durch die Möglichkeit der unmittelbaren, maschinellen Verarbeitung des Untersuchungsgegenstands Text naheliegend ist, so sind in zunehmendem Maße auch Hinwendungen zu anderen, komplexeren Medientypen zu beobachten. Als Indiz hierfür mag etwa die neuerliche Gründung einer DHd-Arbeitsgruppe „Film und Video“[4] sowie die Beantragung eines DFG-Schwerpunktprogramms „Das digitale Bild“[5] gesehen werden. Für den Bereich der digitalen Musikwissenschaft reichen die Aktivitäten dabei durchaus weiter, mindestens bis in die Mitte der 1980er-Jahre, zurück.[6] Aktuell ist die Musikwissenschaft in den Digital Humanities vor allem im Bereich der digitalen Editionen sehr stark vertreten.[7] In diesem Beitrag sollen nun Möglichkeiten und Herausforderungen von Digital-Humanities-Verfahren für die Musikwissenschaft beleuchtet werden, die stärker in den Bereich der computergestützten Analyse von symbolischer Musik[8] gehen und dabei Anleihen im benachbarten Feld des Music Information Retrieval (MIR) nehmen, das traditionell bei der Informatik sowie auch der Informationswissenschaft angesiedelt ist.

Eine wesentliche Voraussetzung für derartige digitale Analyseansätze ist die vorherige Erschließung und formale Repräsentation der Musikdaten, um diese einer maschinellen Verarbeitung überhaupt erst zugänglich zu machen. Am Fallbeispiel einer großen, handschriftlichen Sammlung volkstümlicher Liedblätter aus dem deutschsprachigen Raum (vgl. Abschnitt 2) sollen grundlegende Methoden zur Erschließung und Analyse von notierter Musik aufgezeigt werden. Zum Thema Erschließung werden im dritten Abschnitt Tools aus dem Bereich der Optical Music Recognition (OMR) diskutiert, die allerdings für handschriftlich notierte Musik nur begrenzt einsetzbar sind. Als alternative Erschließungsstrategie wird ein Crowdsourcing-Ansatz zur Transkription handschriftlicher Melodien mit dem selbst erstellten Tool Allegro vorgestellt. Im vierten Abschnitt schließlich werden Möglichkeiten einer computergestützten Analyse der zuvor digitalisierten Musikdaten aufgezeigt und dabei grundlegende Konzepte des MIR, insbesondere der Melodic Similarity, erörtert. Der Beitrag schließt mit einem Fazit zum Potenzial von Digital-Humanities-Ansätzen in der Musikwissenschaft.

2 Fallstudie: Regensburger Liedblattsammlung

Die Universitätsbibliothek Regensburg betreut seit 2001 Bestände (Text, Audio, Bild) aus mehreren Sammlungen zur Volksmusikforschung.[9] Einen wesentlichen Teilbereich stellt eine umfangreiche Sammlung handschriftlicher Liedblätter aus dem deutschsprachigen Raum dar, deren Geschichte sich bis in das Jahr 1914 zurückverfolgen lässt. Damals wurde mit der Gründung des Deutschen Volksliedarchivs (DVA) in Freiburg im Breisgau erstmals der Versuch unternommen, eine systematische Sammlung deutscher Volkslieder zu etablieren. Die Regensburger Liedblattsammlung besteht aus ca. 140 000 Blättern mit handschriftlich notierten Volksliedern aus dem gesamten deutschsprachigen Raum. Die Bestände gliedern sich in 18 Teilsammlungen, wobei die sogenannte A-Sammlung (handschriftlich überlieferte Volks- und Kinderlieder), mit etwa 120 000 Blättern, die umfangreichste Teilsammlung ist. Neben den monophonen Melodien enthalten die Blätter zudem – meist mit Schreibmaschine verfasste – Liedtexte sowie einfache Metadaten, beispielsweise eine Liedblattnummer oder Angaben zum Archiv-Standort (vgl. Abb. 1).[10] Ausführlichere Metadaten, wie beispielsweise Titel, Text-Incipit, Sangesort und Jahr, liegen in einem umfangreichen Zettelkastensystem vor; sie konnten im Rahmen von Vorarbeiten auf manuellem Wege bereits vollständig in eine elektronische Datenbank (Augias) übertragen werden.

Abb. 1 Beispielhaftes Liedblatt aus der Regensburger Liedblattsammlung
Abb. 1

Beispielhaftes Liedblatt aus der Regensburger Liedblattsammlung

3 Maschinenlesbare Erschließung handschriftlicher Liedblätter

Wenngleich im Rahmen des Regensburger Volksmusikportals schon jetzt viele der Liedblätter online anhand der bereits digitalisierten Metadaten in einem virtuellen Findbuch recherchierbar sind (vgl. Abb. 2), so ist das langfristige Ziel eine vollständig maschinenlesbare Repräsentation aller Melodien und Liedtexte. Mit einer derart erschlossenen Liedblattsammlung kann dann nicht nur ein komplexes Informationssystem zur Suche nach Text und Melodien umgesetzt werden, sondern es können auch computergestützte Analysen der Bestände im Sinne der Digital Humanities unternommen werden (vgl. Abschnitt 5). Nachfolgend werden einige Herausforderungen bei der Erschließung der handschriftlichen Melodien beschrieben.

Abb. 2 Auszug aus dem Findbuch des Regensburger Volksmusikportals zur Recherche in der Liedblattsammlung
Abb. 2

Auszug aus dem Findbuch des Regensburger Volksmusikportals zur Recherche in der Liedblattsammlung

3.1 Optical Music Recognition für handschriftliche Liedblätter

Aufgrund der großen Anzahl von Liedblättern bietet sich eine automatisierte Erschließung an. Analog zu bekannten Techniken aus der Texterkennung (Optical Character Recognition, OCR) finden sich auch für den Bereich der Notenerkennung Ansätze für Optical Music Recognition (OMR),[12] bei denen versucht wird, durch Bilderkennung einzelne Noten automatisiert zu identifizieren. Wenngleich es eine ganze Reihe von verfügbaren OMR-Tools für die Erkennung von gedruckten Noten gibt, so lassen die Ergebnisse hinsichtlich Präzision und Zuverlässigkeit häufig sehr zu wünschen übrig.[13] Beim Versuch solch existierende OMR-Tools – die primär für die Erkennung gedruckter Noten konzipiert sind – auf handschriftliche Notenblätter anzuwenden, sind die Ergebnisse noch schlechter. Im Rahmen einer Evaluationsstudie[11][14] für ein Testkorpus von 20 Liedblättern aus der Regensburger Sammlung wurden insgesamt drei verfügbare OMR-Tools evaluiert (vgl. Tab. 1).

Tab. 1

Überblick zu den evaluierten OMR-Tools

NameQuelle
CapellaScanhttp://www.capella.de/de/index.cfm/produkte/capella-scan/
PhotoScorehttp://www.sibelius.com/products/photoscore/ultimate.html
SharpEyehttps://www.columbussoft.de/SharpEye.php

Das Evaluationsdesign und die verwendeten Metriken orientierten sich dabei an bestehenden Evaluationsstudien für OMR-Tools für gedruckte Noten.[15] Die Ergebnisse der Evaluation zeigten, dass die durchschnittliche Erkennungsrate der getesteten Tools sehr gering (CapellaScan 8 %, PhotoScore 36 %, SharpEye 4 %) und damit nicht geeignet für den produktiven Einsatz für die Digitalisierung der Regensburger Liedblattsammlung ist.

3.2 Crowdsourcing-Ansatz: Allegro

Als alternativer Ansatz für die Erschließung der umfangreichen Liedblattsammlung wurde ein Crowdsourcing-Tool namens Allegro[16] entwickelt. In der Literatur finden sich zahlreiche Belege für den erfolgreichen Einsatz von Crowdsourcing-Strategien im Bereich der Digital Humanities,[17] insbesondere für Aufgaben im Bereich der Transkrip-

tion,[18] sowohl für die Transkription von Manuskripten[19] als auch für den Anwendungsfall der Transkription von Notenblättern.[20] Zu Beginn des Entwicklungsprozesses von Allegro wurde zunächst eine grundlegende Analyse vorhandener Transkriptionstools (vgl. Tab. 2) vorgenommen, einerseits um einen Überblick zu typischen Funktionen solcher Werkzeuge zu erhalten, andererseits um auszuloten, inwiefern bestehende Tools für den Einsatz in einem kollaborativen Crowdsourcing-Szenario geeignet sind.

Tab. 2

Überblick zu einigen bekannten Tools für die Notation und Transkription von Musikdaten

NameTypQuelle
Flat.ioWebhttps://flat.io/
NoteflightWebhttps://www.noteflight.com
SibeliusDesktophttp://www.avid.com/en/sibelius
MuseScoreDesktophttps://musescore.org/

Da keines der existierenden Tools unmittelbar für Crowdsourcing ausgelegt ist, wurde mit Allegro ein neues Konzept entwickelt, das explizit bestehende best practices aus erfolgreichen Crowdsourcing-Projekten umsetzt.[21]Allegro wurde ausschließlich mit aktuellen Webtechnologien[22] umgesetzt und kann ohne vorherige Installation direkt im Browser ausgeführt werden. Aufgrund der enormen Menge an Liedblättern wurde beim Design von Allegro insbesondere auch der Aspekt der Usability berücksichtigt.[23] Dabei soll die Einstiegshürde für potenzielle Nutzer so gering wie möglich sein und die Bedienung des Tools so einfach gehalten werden, dass selbst Nutzer, die nicht aktiv Noten lesen können, in der Lage sind, die Blätter zu transkribieren.[24] Zur Erreichung dieser Ziele kamen während des gesamten Entwicklungsprozesses systematisch Techniken des Usability Engineering und Ansätze aus dem Bereich des User Centered Design (UCD) zum Einsatz.[25]

Die Transkription mit Allegro gliedert sich im Wesentlichen in drei Phasen[26] (vgl. Abb. 3): (1) Zunächst wird das Liedblatt in einzelne Takte segmentiert. Dieser Schritt ist wichtig, um später eine taktweise Transkription umsetzen zu können. Bereits in frühen Nutzerstudien mit dem Allegro-Prototyp wurde deutlich, dass eine Transkription Takt für Takt das Fehlerpotenzial gegenüber der Transkription des gesamten Liedblatts erheblich reduziert, da die Nutzer hier häufig den Überblick bzw. die Orientierung im Notenblatt verloren. (2) Im nächsten Schritt transkribieren die Anwender die Liedblatt-ID, die für eine spätere Verknüpfung mit den bestehenden Metadaten notwendig ist. Außerdem werden in diesem Schritt die Taktart und die Tonart angegeben. (3) Im letzten Schritt erfolgt die eigentliche Transkription der einzelnen Takte. Über ein Onboarding-Tutorial werden die Transkriptoren bei der ersten Nutzung auf die grundlegenden Funktionen hingewiesen. Die Transkription erfolgt durch Maus oder Tastatur in einer interaktiven Notenzeile. Das gesamte Lied kann nach der Transkription zu Testzwecken auch im Browser abgespielt werden, um so ggf. fehlerhafte Transkriptionen akustisch wahrnehmbar zu machen.[27] Neben diesem einfachen Mechanismus zur grundlegenden Kontrolle der Transkriptionen durch die einzelnen Nutzer wird in Allegro darüber hinaus eine systematische Qualitätskontrolle im Sinne eines Double-Keying-Verfahrens[28] durchgeführt. Dabei wird jedes Liedblatt von zwei unabhängigen Transkriptoren abgeschrieben. Falls es zu Abweichungen bei den beiden Transkriptionsvarianten kommt, wird das betreffende Liedblatt von einem Experten nochmals manuell geprüft. Allegro bietet hierfür eine spezielle Vergleichs- bzw. Korrekturansicht. Wenn die Transkriptionen zweier unabhängiger Nutzer vollständig übereinstimmen fällt der Schritt der manuellen Korrektur weg.

Abb. 3 Wesentliche Schritte bei der Transkription mit Allegro
Abb. 3

Wesentliche Schritte bei der Transkription mit Allegro

Durch den Web-Kontext des Tools werden zunächst alle Transkriptionen in MusicJSON, also einem Format basierend auf der JavaScript Object Notation,[29] repräsentiert. Dieses Format kann mit entsprechenden Konvertierungstools aber problemlos in andere Music Encoding-Formate wie beispielsweise MusicXML[30] oder MEI (Music Encoding Initiative)[31] übertragen werden.

Als Zwischenfazit zur Erschließung der Regensburger Liedblattsammlung kann festgehalten werden, dass sich ein toolgestützter Crowdsourcing-Ansatz grundsätzlich gut eignet, derartiges Material zu transkribieren. Dabei muss allerdings kritisch angemerkt werden, dass der Zeitfaktor für die korrekte Transkription aller Liedblätter der umfangreichen Sammlung trotz Crowdsourcing immer noch sehr hoch ist. Aktuell beträgt die durchschnittliche Transkriptionszeit pro Blatt ca. sechs Minuten. Bei zwei jeweils unabhängigen Transkriptionen für insgesamt 140 000 Blätter kommt man somit auf 28 000 Arbeitsstunden – die Korrektur der fehlerhaften Blätter nicht miteingerechnet. Somit ist das Ziel des Ansatzes vielmehr, mithilfe von Crowdsourcing ein ausreichend großen Trainingskorpus zu erstellen, um dann im nächsten Schritt mithilfe von maschinellem Lernen die restlichen Blätter automatisiert transkribieren zu lassen.[32]

4 Computergestützte Analyse von Liedblättern

Neben vollständigen Musik-Editionen gehört der Vergleich einzelner Werke hinsichtlich melodischer Auffälligkeiten zu den typischen Forschungstätigkeiten der Musikwissenschaft. Dabei sind elektronische Datenbanken (vgl. Tab. 3), die eine Suche nach grundlegenden Metadaten und beispielsweise dem Incipit eines Stücks ermöglichen, bereits ein wichtiges Hilfsmittel, welches derartige Vergleiche deutlich erleichtert.

Tab. 3

Music-Information-Retrieval-Systeme für Musikwissenschaftler (Auswahl)

NameQuelle
Digital Archive of Finnish Folk Song Tuneshttp://esavelmat.jyu.fi/index_en.html
Dutch Song Databasehttp://www.liederenbank.nl/
HymnQuesthttp://hymnquest.com/
Humdrumhttp://www.musiccog.ohio-state.edu/Humdrum/
Melody Catcherhttp://melodycatcher.com/
Musipediahttp://www.musipedia.org/
PeachNotehttp://www.peachnote.com/
Probadohttp://www.probado.de/
RISMhttps://opac.rism.info/
Themefinderhttp://www.themefinder.org/

Auch für die Regensburger Liedblattsammlung soll langfristig ein Informationssystem entstehen, das die Suche nach Melodiesequenzen in beliebigen Teilen des Stücks möglich macht. Darüber hinaus soll die Melodiesuche mit einer gewissen Unschärfe bzw. Abstraktion möglich sein, d. h., es sollen nicht nur exakte Übereinstimmungen bezüglich eines bestimmten Melodiefragments gefunden werden, sondern auch solche Lieder als Ergebnis zurückgegeben werden, die bis zu einem gewissen Grad ähnlich sind. Auf diese Weise können weiterreichende Zusammenhänge und Verwandtschaftsbeziehungen zwischen Melodien auf struktureller Ebene identifiziert werden. Diese Unschärfe bei der Suche nach Melodiefragmenten kann zum einen durch Abstraktion auf der Repräsentationsebene einer Melodie erfolgen. Zum anderen lässt sich mithilfe sogenannter Melodic Similarity-Algorithmen[33] der Grad der Ähnlichkeit zweier Melodien graduell bestimmen.

4.1 Abstraktion auf der Repräsentationsebene

Üblicherweise werden in der Musikwissenschaft konkrete Melodiesequenzen, basierend auf der genauen Tonhöhe und -länge, miteinander verglichen. Versucht man melodische Ähnlichkeit hingegen aus psychoakustischer Perspektive zu operationalisieren, dann zeigen schon Wahrnehmungsexperimente aus den 1970er-Jahren, dass eine nicht hundertprozentige exakte Nachahmung einer Melodie von Probanden häufig nicht vom Original zu unterscheiden ist, wenn diese eine ähnliche Melodiekontur aufweisen.[34] Eine Melodiekontur ist eine Abstraktion der eigentlichen Melodie, bei welcher der Faktor Tonlänge vollkommen ausgeblendet wird. Damit ist eine Melodiekontur eine bloße Sequenz von Intervallen oder Tonhöhen. Eine zusätzliche Abstraktion der ohnehin schon reduzierten Melodiekontur stellt der sogenannte Parsons-Code dar, bei dem schließlich auch die exakte Tonhöhe einzelner Noten ausgeblendet wird und stattdessen nur die Beziehung zweier aufeinanderfolgender Noten als Ansteigen (u = up), Abfallen (d = down) oder Gleichbleiben (r = repeat) repräsentiert wird. Abb. 4 zeigt die beispielhafte Umsetzung von drei Suchanfragen (1) als exakte Melodie und als abstrakte Melodiekontur, (2) einmal als Abfolge von Intervallen (Anstieg/Abfallen der Tonhöhe durch Angabe von positiven/negativen Halbtonschritten) und einmal als (3) Parsons-Code, der nur das tendenzielle Ansteigen oder Abfallen einer Melodie berücksichtigt.

Abb. 4 Beispiele für unterschiedliche abstrakte Repräsentationen von Melodiesequenzen
Abb. 4

Beispiele für unterschiedliche abstrakte Repräsentationen von Melodiesequenzen

4.2 Melodic-Similarity-Funktion

Durch die Abstraktion der Repräsentationsebene können bereits weitreichende strukturelle Verwandtschaftsbeziehungen zwischen einzelnen Liedblättern identifiziert werden. Zusätzlich wird durch die Implementierung einer Melodic-Similarity-Funktion ein Mechanismus zur graduellen Erfassung melodischer Ähnlichkeit umgesetzt, der es beispielsweise erlaubt, Melodienfragmente, die mindestens eine Übereinstimmung von 75 % aufweisen, zu identifizieren.

Ein Standard-Algorithmus zur Berechnung von melodischer Ähnlichkeit zwischen zwei Melodien ist der Mongeau-Sankoff-Algorithmus,[35] der im Wesentlichen auf dem Prinzip der Editierdistanz basiert. Dabei errechnet sich die Distanz zwischen zwei Melodien aus der Anzahl der Editier-Operationen,[36] die nötig sind, um eine Melodie in eine andere zu überführen. Zusätzlich führen Mongeau und Sankhoff zwei weitere Operationen „Fragmentierung“ (fragmentation) und „Konsolidierung“ (consolidation) ein. Die Fragmentierungsoperation berücksichtigt, dass eine Note aus der Quellsequenz durch mehrere Noten in der Zielsequenz ersetzt werden kann (beispielsweise eine ganze Note durch vier Viertelnoten), Konsolidierung beschreibt den umgekehrten Prozess der Ersetzung mehrerer Noten durch eine einzige Note. Die Details des Algorithmus sehen noch eine unterschiedliche Gewichtung der unterschiedlichen Operationen vor. Das Grundprinzip lässt sich folgendermaßen zusammenfassen: Je mehr Editieroperationen nötig sind, um eine Melodie in eine andere zu überführen, desto geringer ist deren Melodic Similarity Score.

4.3 MIR-System für die Analyse der Liedblattsammlung

Die beiden eben skizzierten Möglichkeiten der graduellen Identifikation melodischer Ähnlichkeit in Melodien wurden in einem funktionsfähigen Prototyp umgesetzt, welcher die Analyse eines kleinen Subkorpus an fertig transkribierten Liedblättern erlaubt.[37] Mit dem System können melodische Suchanfragen entweder als exakte Melodie, als Intervallfolge oder als Parsons-Code-Sequenz beantwortet werden. Abb. 5 zeigt ein beispielhaftes Szenario, in dem nach dem Parsons-Code „up-down-up-up-down-down-up-down-down“ gesucht wird. In der Ergebnisliste sollen alle Liedblätter vorkommen, die diese Sequenz an irgendeiner Stelle der Melodie zu mindestens 75 % enthalten.[38]

Abb. 5 Beispielhafte Suchanfrage im Parsons-Code und die resultierende Ergebnisliste
Abb. 5

Beispielhafte Suchanfrage im Parsons-Code und die resultierende Ergebnisliste

Jeder Treffer der Ergebnisliste kann näher untersucht werden. Dabei wird zunächst der Originalscan des Liedblatts angezeigt (vgl. Abb. 6). Darüber hinaus wird ein virtuelles Notenblatt anhand der Transkription dargestellt, in welchem die gesuchte Melodiesequenz entsprechend hervorgehoben ist. Sowohl die Transkription als auch ein synthetisiertes MIDI-File können heruntergeladen werden.

Abb. 6 Detailansicht eines Suchergebnisses
Abb. 6

Detailansicht eines Suchergebnisses

Als weitere Möglichkeit der Exploration der Liedblattsammlung anhand melodischer Ähnlichkeitsbeziehungen ist eine Netzwerkansicht gegeben. Dabei kann eine Auswahl von Liedblättern (beispielsweise aus einer bestimmten Region) als Netzwerk visualisiert werden, in dem jeder Knoten ein Liedblatt darstellt (vgl. Abb. 7). Klickt man ein Liedblatt in diesem Netzwerk an, so werden alle Liedblätter angezeigt, die eine melodische Ähnlichkeit zum Ausgangsliedblatt aufweisen, die größer als der definierte Schwellwert ist.

Abb. 7 Netzwerkdarstellung melodischer Ähnlichkeitsbeziehungen für ein exemplarisches Liedblattkorpus
Abb. 7

Netzwerkdarstellung melodischer Ähnlichkeitsbeziehungen für ein exemplarisches Liedblattkorpus

5 Fazit: Digital Humanities in der Musikwissenschaft

Das prototypische Informationssystem, das im vorhergehenden Abschnitt vorgestellt wurde, kann als Machbarkeitsstudie verstanden werden, die illustriert, wie in großen digitalen Sammlungen computergestützt melodische Ähnlichkeiten identifiziert werden können. Dadurch ergeben sich aus musikwissenschaftlicher Perspektive interessante Möglichkeiten, das Phänomen Volkslied bzw. volkstümliche Musik empirisch an einem riesigen Korpus, ohne subjektiv-wertende Vorurteile zu untersuchen. Mithilfe des skizzierten Informationssystems können beispielsweise hochfrequente Muster in den Melodien automatisiert erkannt werden und im Sinne lokal begrenzter Topoi näher analysiert werden, etwa durch den Vergleich mit den vorhandenen Metadaten (Ort, Zeit). Gibt es beispielsweise auffällige Muster oder melodische Universalien für eine bestimmte Region oder ändern sich Melodiemuster im Laufe der Zeit, was deren Häufigkeitsverteilung angeht (diachrone Perspektive)? In Kombination mit den Liedtexten, die über vorhandene OCR-Tools gut erschlossen werden können, ergeben sich zudem spannende Möglichkeiten im Bereich melodisch-textueller Kollokationen: Kommen also bestimmte Schlüsselwörter (beispielsweise aus den semantischen Feldern Liebe, Tod, Geburt) besonders häufig mit bestimmten melodischen Mustern vor? In weiterführender Perspektive wäre auch denkbar, besonders hochfrequente Melodiesequenzen mit anderen Beständen abzugleichen, um beispielsweise herauszufinden, inwiefern sich die heutige volkstümliche Musik von den Volksliedern aus der Regensburger Liedblattsammlung abhebt.

Zum aktuellen Zeitpunkt mag das vorgestellte Projekt als Experiment gelten, in dem grundlegend untersucht wird, zu welchen (neuen) Erkenntnissen man mit quantitativen Ansätzen in der Musikwissenschaft überhaupt kommen kann. Der Bereich der volkstümlichen Musik scheint dabei besonders gut geeignet, da die relativ einfachen, monophonen Melodien wesentlich leichter als komplexere Werke der Kunstmusik formalisiert und quantitativ ausgewertet werden können. Der relativen Einfachheit der Melodien steht die enorme Quantität der einzelnen Liedblätter gegenüber, die mit qualitativen Methoden weder subjektiv noch intuitiv bewältigt werden kann.[39] Damit sind Volkslieder die ideale Petrischale, um das Potenzial von Digital-Humanities-Ansätzen in der Musikwissenschaft grundlegend zu erproben. Berücksichtigt man zudem die zunehmende, massenhafte Verfügbarkeit digitalisierte Noten, etwa bei MuseScore[40] oder bei UltimateGuitar,[41] so scheint eine Übertragbarkeit der Methoden auf weitere musikalische Bereiche im Sinne eines Distant-Hearing-Ansatzes[42] aus Perspektive der Digital Humanities mehr als plausibel.

Über den Autor / die Autorin

Manuel Burghardt
Online erschienen: 2018-6-1
Erschienen im Druck: 2018-6-1

© 2018 Walter de Gruyter GmbH, Berlin/Boston

Articles in the same Issue

  1. Titelseiten
  2. Inhaltsfahne
  3. Digitale Forschungsinfrastruktur für die Musikwissenschaft
  4. Editorial
  5. Ontologien als semantische Zündstufe für die digitale Musikwissenschaft?
  6. Improving (Re-) Usability of Musical Datasets: An Overview of the DOREMUS Project
  7. Building Prototypes Aggregating Musicological Datasets on the Semantic Web
  8. Normdaten zu „Werken der Musik“ und ihr Potenzial für die digitale Musikwissenschaft
  9. Lesen und Schreiben im digitalen Dickicht
  10. Bach digital: Ein „work in progress“ der digitalen Musikwissenschaft
  11. The letters of Casa Ricordi
  12. Digitizing Sound Archives at Royal Library of Belgium
  13. Open Cultural Heritage – zum Hören!
  14. Zur Edition historischer Tonaufnahmen – ein Praxisbericht
  15. Stand und Perspektiven der Nutzung von MEI in der Musikwissenschaft und in Bibliotheken
  16. Langzeitverfügbarkeit von wissenschaftlicher Software im Bereich historisch-kritischer Musikedition
  17. Das Internationale Quellenlexikon der Musik, RISM
  18. Optical Music Recognition in der Bayerischen Staatsbibliothek
  19. Digital Humanities in der Musikwissenschaft – Computergestützte Erschließungsstrategien und Analyseansätze für handschriftliche Liedblätter
  20. New Library Science
  21. Warum brauchen wir eine (neue) Bibliothekswissenschaft?
  22. Why Do We Need a New Library Science
  23. How to Qualify the Debate on the Public Library by the Use of Research-Developed Tools
  24. Die drei Dimensionen des Dokuments und ihre Auswirkungen auf die Bibliotheks- und Informationswissenschaft
  25. Do We Need a New Approach to Library and Information Science?
  26. Bibliotheken mit Vorstellungskraft – Bausteine für einen Lehrplan für zukünftige Bibliotheksarbeit
  27. Im Labyrinth
  28. Die Unwahrscheinlichkeit von Wissenstradition und die Beharrlichkeit der Bibliothek
  29. Rezensionen
  30. Petra Hauke, Andrea Kaufmann und Vivien Petras (Hrsg.): Festschrift für Konrad Umlauf zum 65. Geburtstag. Berlin; Boston: de Gruyter Saur, 2017. XVI, 726 S., 119,00 €, ISBN 978-3-11-051971-6, e-ISBN (PDF) 978-3-11-052233-4, e-ISBN (EPUB) 978-3-11-051993-8
  31. Ulrich Hohoff: Wissenschaftliche Bibliothekare als Opfer der NS-Diktatur. Ein Personenlexikon. Beiträge zum Buch- und Bibliothekswesen Band 62. Wiesbaden: Harrassowitz, 2017. XIII, 415 Seiten. Fest geb. € 72.-, ISSN 0408-8107, ISBN 9078-3-447-10842-3, E-Book ISBN 978-3-447-19613-0; 1980–83 erschien das „Biographische Handbuch der deutschsprachigen Emigration“.
Downloaded on 19.9.2025 from https://www.degruyterbrill.com/document/doi/10.1515/bfp-2018-0032/html
Scroll to top button