Home Library & Information Science, Book Studies Bericht zur Tagung aus der Reihe Digitale Bibliothek: Vernetzte Welten
Article Publicly Available

Bericht zur Tagung aus der Reihe Digitale Bibliothek: Vernetzte Welten

25. bis 26. Februar 2016; RESOWI-Zentrum der Karl-Franzens-Universität Graz
  • Martina Bürgermeister

    Martina Bürgermeister

    Zentrum für Informationsmodellierung, Elisabethstraße 59/III, 8010 Graz, Österreich

    EMAIL logo
    and Helmut W. Klug

    Helmut W. Klug

    Zentrum für Informationsmodellierung, Elisabethstraße 59/III, 8010 Graz, Österreich

    EMAIL logo
Published/Copyright: July 12, 2016
Become an author with De Gruyter Brill

Zusammenfassung

Die Tagung „Vernetzte Welten“ aus der Tagungsreihe „Digitale Bibliothek“ stellte die organisatorische und inhaltliche Kollaboration von Institutionen aus dem GLAM-Sektor in den thematischen Mittelpunkt: Referiert wurde u. a. über Metadaten und Pflege semantischer Datenstrukturen, Linked Open Data, Open Access und Nachnutzung von semantisch beschriebenen digitalen Objekten. Die Konferenz machte deutlich, dass hier eine bewusste Umorientierung stattgefunden hat, die das Öffnen der Institutionen und die Verbreitung und Vernetzung der kuratierten Objekte forciert.

Abstract

The conference “Vernetzte Welten“ from the Digital Library series focused on the collaboration of GLAM sector institutions, mainly on the subjects organization and content: Among other topics, reports were given on metadata and maintenance of semantic data structures, Linked Open Data, Open Access and reusing semantically described digital objects. The conference showed clearly that a deliberate reorientation has taken place which speeds up the opening of the institutions and the spreading and interlinking of objects that have undergone curation.

1 Einleitung

Vom 25. bis 26. Februar 2016 fand an der Karl-Franzens-Universität in Graz die Veranstaltung „Vernetzte Welten“ aus der seit 2010 jährlich veranstalteten Tagungsreihe „Digitale Bibliothek“ statt. Kernthemen der diesjährigen Konferenz waren Vernetzungsmethoden, Organisationsformen und Services bzw. Werkzeuge zur Datenaufbereitung. Schon in den Jahren zuvor hat die Tagung Beiträge zum Bereich Semantic Web gebracht, doch wurden sie damals noch zu den Visionsthemen von IT-Expertinnen und -Experten gezählt. In diesem Jahr allerdings war für die Mehrheit der Teilnehmenden Linked Open Data kein abstrakter, nur schwer vorstellbarer Begriff mehr, sondern das Konzept der adäquaten, zukunftsorientierten Kuration digitaler Objekte scheint mitten in der Welt der Bibliotheken, Archive, Museen angekommen zu sein; das zeigten vor allem die regen Diskussionen in den Workshops und Vorträgen. Aber nicht nur Vernetzungsmethoden wurden diskutiert, sondern ein ganzes Spektrum an damit verbundenen Themen: Am ersten Tag boten drei Workshops den Teilnehmenden die Möglichkeit, sich auf problemorientierte und offene Weise mit den Erfordernissen der Vernetzung von Daten, beispielhaften Kooperationen und der Werkzeugentwicklung zur Datenvernetzung auseinanderzusetzen. Am zweiten Tag fanden Vortragsreihen, Poster- und Firmenpräsentationen statt, die jeweils Teilaspekte zum Thema „Vernetzte Welten“ betrachteten. Die Veranstaltung ist auch auf der begleitenden Website sehr gut dokumentiert: Es gibt dort neben Fotoimpressionen auch ausführliche Abstracts sowie die Präsentationsfolien der Vortragenden zum Download.[1]

2 Workshops Digitale Bibliothek: Donnerstag 25. Februar 2016

Stefanie Rühle, Francesca Schulze und Karolin Schmahl von der Deutschen Digitalen Bibliothek (DDB) stellten in ihrem Workshop die Datenqualität von Metadaten als den ausschlaggebenden Erfolgsfaktor für Linked Data vor. Gerade deshalb sieht der Strategieplan von DDB und Europeana für die kommenden fünf Jahre die Optimierung der Datenprozesse und Verbesserung der Datenqualität vor – mit dem Ziel, den Datenaustausch zu verbessern und die Vernetzung zu fördern. Im Workshop wurde der Workflow der DDB vorgestellt und die interaktive Arbeit anhand von Use-Cases veranschaulicht: Den Teilnehmenden wurde dadurch deutlich, welche Schlüsselposition Datenqualität und -konsistenz dabei einnehmen, wenn Informationsverlust im Zuge der Datenkonvertierung aus proprietären Systemen in den im Aufbau begriffenen Data Pool der DDB gering gehalten werden soll. Die Herausforderung endet hier nicht, denn die Datenqualität muss auf die Erwartungen der Benutzenden abgestimmt werden. Dazu stellt sich ein weiteres Desiderat: Die semantische Vernetzung der Daten mit intern wie extern verbundenen Kulturobjekten. Die Ausführungen der Workshopleiterinnen und die interaktive Arbeit mit Beispieldatensätzen hat den Teilnehmenden gezeigt, dass Datenqualität von der Erfassung eines Objekts an und ab da in jedem Schritt im Aggregationsprozess geprüft und gesichert werden muss.

Für Gerda und Walter Koch, die Leitenden des Workshops zu Dokumentations- und Annotationswerkzeugen[2] , geht Annotieren über die Definition als Anreicherung von Quellen mit zusätzlichen Informationen hinaus. Sie hoben hervor, dass erst durch Bezüge zu externen Quellen ein Mehrwert generiert werden kann, und damit neue Wissens- und Informationsstrukturen aber auch Suchoptimierung möglich sind. Im Rahmen des Förderprogrammes zur Gestaltung der Europäischen Digitalen Bibliothek, Europeana, sind in verschiedenen Projekten Annotationswerkzeuge entwickelt worden, die das vom W3C empfohlene Web Annotation Data Model[3] unterstützen. Damit wird der interoperable Austausch von Daten über unterschiedliche Plattformen hinweg erleichtert. Im Workshop wurden drei Projekte aus dem Förderprogramm der Europeana vorgestellt: Das Projekt Europeana Sounds[4] will die Verdoppelung der Anzahl der Audiobeiträge in der Europeana auf mehr als eine Million und damit einhergehend eine Verbesserung der geographischen sowie thematischen Abdeckung erreichen. Die dafür geschaffene Crowdsourcing Infrastruktur bietet eine Umgebung, die es Usern ermöglicht, Inhalte einfach zu annotieren. LoCloud[5] ist ein Best Practice Network, das kleine und mittelgroße Einrichtungen unterstützt, ihre Inhalte und Metadaten in Europeana einzupflegen, als Datenaggregator fungiert eine cloud-basierte Infrastruktur. Sie erleichtert über sogenannte Mikroservices das Sammeln, Standardisieren und Hochladen der Daten. Media. M.ixer[6] ist ein Projekt, das Videohersteller, Hosts und Verteiler vernetzt, und ihnen damit die Möglichkeit gibt, einen europäischen Markt für die Wiederverwendung von Medienfragmenten zu schaffen. In Zusammenarbeit mit der Media Fragments Working Group des W3C[7] soll es möglich werden, Medienfragmente im Web über Uniform Resource Identifiers (URIs) zu identifizieren, sie somit verortbar und jederzeit teilbar zu machen. Den Abschluss des Workshops bildete ein kurzer Einblick in die Produktentwicklung von Gerda und Walter Koch, die die Zukunft der Anntotations- und Dokumentationswerkzeuge in der Entwicklung dezentraler, freier Annotationsinfrastrukturen sehen, in denen die Anreicherungen selbst zu Objekten und suchbaren Datensätzen werden.

Der OpenGLAM Workshop, der in erster Linie das Bewusstsein für offene Daten in Kunst und Kultur bei den anwesenden Vertretern von GLAM-Institutionen (Galerien, Bibliotheken, Archive, Museen) wecken sollte, bestach nicht nur durch die überzeugenden Argumente, sondern auch durch eine umfangreiche, mit vielen Fakten und Praxisbeispielen unterstützte Präsentation. Die Basis der OpenGLAM-Bewegung sind verschiedene NGOs, aber auch KünstlerInnen und SoftwareentwicklerInnen. Ihr Ziel ist es, kulturelle Daten auffindbar zu machen, Zugänge für die Zweitnutzung zu schaffen und generell Öffentlichkeitsarbeit für Open Access im Rahmen von kulturbewahrenden und -vermittelnden Organisationen zu leisten. Die Richtlinien und Ziele dafür sind in den OpenGLAM Principles zusammengefasst.[8] Der Einführungsvortrag von Beat Estermann stellte die OpenGLAM Situation in der Schweiz mit abgeschlossenen und laufenden Projekten vor, die in der Regel für alle Beteiligten positive Ergebnisse erbrachten und noch generieren. Außerdem gab es einen Überblick über entsprechende Initiativen und Fortschritte in ausgewählten europäischen Ländern, die einen klaren Trend hin zur Öffnung von Kulturerbeinstitutionen erkennen lassen. Als praxisorientierten Ansatz stellte Claudia Garád die Arbeit der Wikimedia Österreich u. a. am Beispiel der Landesbibliothek Vorarlberg vor. Sylvia Petrovic-Majer leitete den interaktiven Workshop-Teil, der es den Teilnehmenden ermöglichte, eigene Erfahrungen, aber auch Fragen und Zweifel einzubringen, die anschließend beantwortet und diskutiert wurden. Insgesamt konnten die Teilnehmenden einen guten Einblick in die Thematik gewinnen, um somit selbst leichter im Rahmen von OpenGLAM tätig werden zu können.

3 Tagung Digitale Bibliothek: Freitag 26. Februar 2016

Die Vortragsreihe am Freitag, dem 26.02.2016, wurde von GR DI Markus Schimautz und Johannes Stigler eröffnet. Letzterer konnte das stetige Wachsen der vernetzten Welten, d. h. die gemeinsamen Wege von Öffentlichkeit, Wissenschaft und Kulturerbeinstitutionen in Österreich und speziell in Graz aus eigener Erfahrung positiv beurteilen. In die Pflicht nahm Stigler aber Politik und öffentliche Geldgeber, die den Ausbau der digitalen Infrastruktur in Österreich zwar propagierten, aber das volle Potential noch nicht ausschöpften.

Der erste Vortragsblock fokussierte auf die gelungene Interaktion zwischen Institutionen und Öffentlichkeit: Florian Steffen von der Schweizerischen Nationalbibliothek stellte in seinem Erfahrungsbericht die Arbeit seiner Institution mit Wikimedia Schweiz vor. Dazu wurden zwei Schweizer Autoren der Wikipedia eingeladen, die während der Projektlaufzeit als Wikipedians in Residence in alle für sie relevanten Entscheidungsprozesse und Gremien der Nationalbibliothek eingebunden waren. Es wurde von ihnen erwartet, dass sie für Wikipedia interessante gemeinfreie Sammlungen identifizieren, damit diese in Folge digitalisiert und über Wikimedia der Öffentlichkeit präsentiert werden konnten. Auf diese innovative Weise sollten die Kulturgüter einem breiteren Publikum zur Verfügung gestellt werden, was im Internet über die Assoziation mit Wikipedia ein erfolgversprechender und vor allem nachhaltiger Weg erschien. Steffen resümierte: Positiv sind für die Nationalbibliothek vor allem die gesteigerte Präsenz und die aktive Verwendung der GLAM-Daten, Wikipedia wiederum profitiert u. a. durch den Zuwachs an qualitativ hochwertigen Daten und Tools. Aus Sicht der Bibliothekarinnen und Bibliothekare war der schwierigste Schritt die Aufgabe der Kontrolle über die Daten, dicht gefolgt vom Ressourcenaufwand, dennoch sind auch das indirekte Anstöße zu positiven Entwicklungen. Subjektiv kann daher schon jetzt von einer positiven Bilanz gesprochen werden, die allerdings von statistischen Auswertungen in den nächsten Jahren erst bestätigt werden muss.

Gregor Neuböck von der Oberösterreichischen Landesbibliothek stellte in seinem Vortrag die interaktiven, citizen science orientierten Möglichkeiten der Digitalen Landesbibliothek Oberösterreich[9] vor. Dabei können Benutzende nicht nur eigene Sammlungen anlegen und verwalten sowie Metadaten pflegen, sondern auch einen Beitrag zur Digitalisierung gemeinfreier Werke leisten, indem sie OCR-gelesene Daten aus dem Buchbestand korrigieren oder handschriftlich überlieferte Texte transkribieren. Die so gewonnenen Daten werden in die allgemeine Bibliothekssuche eingespeist und stehen zum Download bereit. Die zugrundeliegenden Annotations- und Editionswerkzeuge stehen den Benutzerinnen und Benutzern seit Herbst 2015 zur Verfügung. Die Digitale Landesbibliothek Oberösterreich zählt jährlich ca. 1,8 Millionen Zugriffe.

Die „Topotheken“[10] , präsentiert von Karl Heinz, sind eine vom Land Niederösterreich und dem Archiv Niederösterreich geförderte Online-Plattform, deren Ziel es seit nunmehr zehn Jahren ist, historisches Dokumentationsmaterial – Texte, Fotos, Grafiken – aus privaten Sammlungen online sichtbar zu machen. Das Projekt ist dezentral organisiert, wobei Gemeinden oder Vereine über eine einzelne meist ehrenamtliche Ansprechperson Topotheken betreiben und die Datenbank pflegen können: Die Datenstruktur ist bewusst minimal gehalten, sodass für die Aufnahme eines Datensatzes neben dem Digitalisat nur Informationen zu geografischer Verortung, Datierung und eine grundlegende Beschlagwortung vorhanden sein müssen. Die sogenannten Topothekarinnen und Topothekare werden in die Verarbeitung der Dokumente eingeschult und sind für die Aufbereitung der Daten verantwortlich. Die digitale Infrastruktur zur Datenspeicherung aber auch für die Dissemination wird zentral verwaltet. Die Topotheken sind über das Internet frei zugänglich und erzählen individuell und teilweise mit sehr persönlichen Einblicken über Kultur-, Orts- und Gemeindegeschichte. Für die nahe Zukunft ist der weitere europäische Ausbau des Topothekennetzes geplant.

Im Vortragsblock zu digitalen Werkzeugen und Dienstleistungen wurden ein Asset Management System der HU-Berlin, das Webservice „correspSearch“ und das schweizer Projekt „Linked Open Data Zurich“ vorgestellt.

Die „Medienrepositorien-Farm“ der Humboldt-Universität zu Berlin,[11] die von Frank Kühnlenz vorgestellt wurde, ist eine Plattform für Lehre und Forschung. Aktivitäten im Bereich Medienmanagement sollen mit Hilfe der Software ResourceSpace unterstützt werden. Das System speichert digitale Objekte (Bild, Video, Text etc.) und Metadaten sowie die dazu vergebenen Nutzerrechte, sodass diese Daten weiter kollaborativ bearbeitet werden können. Ziel der Plattform ist es, vor allem die Interoperabilität, die Langzeitverfügbarkeit und Nachnutzung durch das Medienrepositorium zu vereinfachen.

Stefan Dumont präsentierte den Webservice „correspSearch“[12] , das 2015 mit dem Berliner Digital Humanities Preis des Interdisziplinären Forschungsverbundes Digital Humanities Berlin ausgezeichnet worden ist. Briefeditionen sollen mithilfe von „correspSearch“ durchsucht und vernetzt werden können. Der Service ergänzt Daten vernetzter Infrastrukturen und fungiert gleichzeitig als Datenaggregator. Grundlage hierfür ist das Correspondence Metadata Interchange Format (CMIF)[13] . CMIF basiert vollständig auf den TEI-Richtlinien[14] , insbesondere auf dem TEI-Element <correspDesc>. Zusätzlich werden Orte und Personen über die Einbindung von Normdateien eindeutig identifiziert. Die Ziele des Projektes sind neben dem Angebot der Suche in den Briefeditionen das projekt- und editionsübergreifende Recherchieren, Sichtbarmachen von Personen und deren Korrespondenznetzwerken und die automatische Verknüpfung beteiligter Briefeditionen; aufgrund der dem System bewusst zu Grunde gelegten Interoperabilität kann das Projekt auch zukünftig inhaltlich wachsen.

Das Projekt „Linked Open Data Zurich“ (LODZ), präsentiert von Nicolas Prongué, Fabio Ricci und René Schurte, versucht heterogene Kunst- und Designsammlungen zu vereinen, nach Prinzipien von Semantischen Netzwerken zu erfassen und kontrolliert als Linked Open Data der Öffentlichkeit bereitzustellen. Federführende Projektpartner sind die Haute école de gestion de Genève in Partnerschaft mit der Zentralbibliothek Zürich, wobei die Daten von der Firma semweb4 gesichert und verarbeitet werden. LODZ beinhaltet die Graphische Sammlung der Zentralbibliothek Zürich, das eMuseum und Medienarchiv der Künste, das Informationszentrum Zürcher Hochschule der Medien und Künste und SIKART das Lexikon zur Kunst in der Schweiz des Schweizerischen Instituts für Kunstwissenschaft. Der aktuelle Projektstand zeigte, dass eine Basismodellierung des Datenbestandes durch Semantic Web Standard konformes RDF[15] umgesetzt wurde. Jedes Werk und jede Person ist in dieser Umsetzung beschrieben und eindeutig durch eine URI adressierbar. Die Vortragenden betonten die arbeitsintensive Aufbereitung der Daten aufgrund großer Heterogenität im Datenbestand selbst und hinsichtlich der Datenlieferungen der Datenprovider.

Der letzte Vortragsblock fasste unterschiedliche Projekte zusammen, die von der statistischen Auswertung vier internationaler behördlicher Datenkataloge bis zu den digitalen Arbeitsmethoden in einzelnen Projekten („Fragmentarium“) und Archiven („Himalaya Archive of Vienna“, „Don Juan Archiv“) reichten.

Tassilo Pellegrini sprach über die Ergebnisse einer Untersuchung zur Rechtssicherheit online verfügbarer Daten in der EU, die im Rahmen des Projekts „Network of Linked Data Excellence“ erarbeitet wurden. Die Public Sector Information Directive (Directive 2003/98/EC) der Europäischen Kommission fordert Lizenzen (Provenance + Usage Rights) für Datensätze in menschenlesbarer und maschinenverarbeitbarer Form, sowie die auf offenen Standards basierende Maschinenlesbarkeit der Lizenzen selbst. Im April 2015 wurden mit einem eigens für diese Untersuchung entwickelten Crawler vier Datenkataloge (Europa: Publicdata.eu, USA: Data.gov, Canada: Open Data Canada, Open Knowledge Foundation: Datahub.io) mit rund 441.000 Datensätzen durchsucht. Die Ergebnisse zeigen natürlich regionale Unterschiede, hohe Lizenzheterogenität, Kompatibilitätskonflikte und vor allem nicht maschinenlesbare Lizenzen in allen Portalen. Die Projektergebnisse fordern, laut Pellegrini, weitere Untersuchungen in Richtung Kompatibilitätskonflikte und Lizensierungspraxis, sowie die Entwicklung einer juristischen Validitätsprüfung für maschinelle Repräsentationen von Lizenzbestimmungen.

Das Western Himalaya Archive Vienna[16] (Verena Widorn & Team) ist eine Sammlung der Universität Wien und beinhaltet Forschungsmaterialien aus Süd- und Zentralasien für Grundlagen- und angewandte Forschung, die zuerst nur analoge Bildquellen, Karten, Texte, Pläne und Zeichnungen umfassten. Die Neugründung des Forschungszentrums CIRDIS (Center for Interdisciplinary Research and Documentation of Inner and South Asian Cultural History) an der Universität Wien bot den nötigen Impuls, das bestehende Archiv fachlich, geographisch aber auch technisch zu erweitern. Dieses neue Himalaya Archive Vienna, als Open Access Langzeitarchiv konzipiert, baut ein Multimedia Repositorium auf, insbesondere zur Archivierung, Aufbereitung und Verbreitung der gesammelten Forschungsdokumentation mit dem Schwerpunkt der Archivierung von vernetzten Multimediadaten. Da auf diese Weise dynamische Prozesse, die vor allem für die Ritualforschung von großer Bedeutung sind, abgebildet werden können, finanziert das Projekt auch ein Team von Softwareentwicklern, die zukünftig für innovative Visualisierungslösungen von unterschiedlichen Materialien und Medien im Web sorgen sollen.

Veronika Drescher stellte das Freiburger Projekt „Fragmentarium“[17] vor, das eng mit „e-codices“[18] , der digitalen Schweizer Handschriftenbibliothek zusammenarbeitet und das eine Webanwendung für die digitale wissenschaftliche Bearbeitung von mittelalterlichen Handschriftenfragmenten aufbauen will. Die Anwendung basiert auf dem IIIF-Framework[19] und ermöglicht das Hochladen, Katalogisieren und Transkribieren von Fragmentdigitalisaten und das Zusammenstellen neuer Sammlungen von zusammengehörigen Fragmenten im Browser sowie dessen Austausch. Gemeinsam mit fünfzehn Partnerinstitutionen sollen im Rahmen des Projektes Case-Studies entwickelt werden, in denen Fragmente aus unterschiedlichen Bibliotheken inventarisiert und nachnutzbar gemacht werden.

Im Projekt „Theaterpublizistik 1750–1918 digital“ (Andrea Gruber, Matthias J. Pernerstorfer) sollen Theaterjournale und -kalender sowie die von Souffleuren erstellten und als Zuverdienst verkauften Theateralmanache online zugänglich gemacht werden. Die Grundlage dafür sind die Forschungen des Berliner Bibliografen Paul S. Ulrich, der seine umfassenden analogen wie digitalen Archivmaterialien zur Verfügung stellt. Ziel des Projektes ist neben der Aufarbeitung der Materialien Ulrichs der vollständige bibliografische Nachweis der Theaterpublizistik zwischen 1750 und 1918 mit der Perspektive, die Digitalisierung weit verstreuter Exemplare voranzutreiben.

4 Poster Session Digitale Bibliothek: Freitag 26. Februar 2016

Mit Postern präsentierten sich eine Reihe internationaler Projekte, welche die Zugänglichmachung des digitalen Altbestandes (Bibliothek der TU Graz)[20] , universitätsinterne Forschungsdatenrichtlinien (Göttingen eResearch Alliance)[21] , das Repositorium „Phaidra“ der Universität Wien[22] , die analytische Visualisierung bibliografischer Metadaten der Deutschen Nationalbibliothek (ÖNB), die digitale Präsentation des Stefan Zweig Nachlasses (Literaturarchiv Salzburg), Aufbereitung, Visualisierung und Verteilung von geobasierten Daten (Uni Regensburg) und die Erfassungsdatenbank mit öffentlichem Frontend für Kulturerbeinstitutionen in Niedersachsen[23] (Programmfabrik GmbH) vorstellten.

Die Beiträge der Veranstaltung mögen in dieser gerafften Übersicht heterogen erscheinen, dennoch wirkte das vereinende Thema der „Vernetzte[n] Welten“ bis in die einzelnen Detailvorträge nach und wurde oft ganz bewusst von den Moderierenden in den Diskussionsrunden aufgegriffen bzw. von den Teilnehmerinnen und Teilnehmern der Tagung in die Erholungspausen mithineingetragen. Die Veranstaltung machte die Diversität dieser Thematik bewusst, die aber immer wieder auf einende Schlüsselbegriffe wie Metadaten und Datenqualität, Linked Open Data, Open Access, Einbinden von Benutzerinnen und Benutzern und Nachnutzung zurückzuführen war. Die Beiträge haben außerdem deutlich gezeigt, dass nicht mehr danach gefragt wird, wie und ob überhaupt digitalisiert werden soll oder welche Standards, Systeme und Workflows sich in der digitalen Erschließungspraxis von Bibliotheken, Archiven und Museen etabliert haben. Die momentanen Entwicklungen scheinen das Öffnen der Institutionen und die Verbreitung und Vernetzung der eigenen Objekte zu forcieren. Es wurden Lösungswege und Praxisbeispiele zu vielen Fragen angeboten, dennoch muss konstatiert werden, dass viele Institutionen auf diesem Entwicklungsweg noch am Anfang stehen.

Insgesamt kann diese Veranstaltung, aus der die Teilnehmenden mit vielen Anregungen, neuen Kooperationsmöglichkeiten, viel kreativer Energie und mit dem Versprechen einer Fortsetzung der „Digitalen Bibliothek“ im Jahr 2017 durch die Veranstalter nach Hause gefahren sind, auf allen Ebenen als sehr gelungen bezeichnet werden.

About the authors

Martina Bürgermeister

Martina Bürgermeister

Zentrum für Informationsmodellierung, Elisabethstraße 59/III, 8010 Graz, Österreich

Helmut W. Klug

Helmut W. Klug

Zentrum für Informationsmodellierung, Elisabethstraße 59/III, 8010 Graz, Österreich

Published Online: 2016-07-12
Published in Print: 2016-08-01

© 2016 by De Gruyter

Downloaded on 10.1.2026 from https://www.degruyterbrill.com/document/doi/10.1515/bd-2016-0091/html
Scroll to top button