Zusammenfassung
Dieser Artikel beschreibt ein Pilotprojekt der Österreichischen Nationalbibliothek zur KI-gestützten Metadatenerfassung elektronischer Publikationen. Zwei Workflows – einer mit GPT via Power Automate, der andere mit einem lokalen Llama-Modell – werden hinsichtlich Genauigkeit und Praktikabilität verglichen. Die Auswertung von 200 Dokumenten zeigt Stärken und Schwächen beider Ansätze. In Phase 2 wird das lokale Modell mittels QLoRA feinjustiert. Das Projekt verdeutlicht Potenziale und Herausforderungen beim Einsatz von KI in der Formalerschließung.
Abstract
This article presents a pilot project at the Austrian National Library exploring AI-supported metadata extraction from electronic publications. Two workflows – one using GPT via Power Automate, the other a local Llama model – are compared in terms of accuracy and feasibility. Evaluation of 200 documents reveals strengths and limitations of both approaches. A second project phase focuses on fine-tuning the local model using QLoRA. The project highlights the potential and challenges of AI in library cataloguing.
1 Einleitung
Mit Beginn des Jahres 2025 startete an der Österreichischen Nationalbibliothek ein Pilotprojekt mit dem Ziel, ausgewählte Schritte der Medienerfassung durch den Einsatz von Werkzeugen der Künstlichen Intelligenz (KI) und Automatisierung zu ergänzen. Das Projekt wird vom Team Katalogisierung – verankert in der Hauptabteilung Bestandaufbau und Bearbeitung – betreut[1]. Im Folgenden wird ein kurzer Abriss zur Genese des Projekts gegeben, bevor das Projekt im Detail erläutert wird.
Im Zuge einer Projektpräsentation am 2. Österreichischen Bibliothekskongress (März 2025) hat sich die Möglichkeit einer Zusammenarbeit zwischen der Österreichischen Nationalbibliothek und der Bibliothek der Technischen Universität Wien ergeben, die die aktuelle Projektphase (Juli 2025) maßgeblich definiert. Nachdem das Projekt noch bis Ende 2025 läuft, schließen wir diesen Artikel mit dem derzeitigen Stand (September 2025) und geben einen Ausblick auf weitere Schritte.
1.1 Arbeitsgruppe Künstliche Intelligenz
Im Herbst 2023 wurde an der Österreichischen Nationalbibliothek die Arbeitsgruppe Künstliche Intelligenz installiert. Mit dieser Arbeitsgruppe wurde ein Startschuss gesetzt, die neuesten Entwicklungen von KI im Bereich von Bibliotheken und verwandten GLAM-Einrichtungen zu evaluieren und Einsatzgebiete zu prüfen.
So selbstverständlich der Einsatz von KI heute bereits für viele Menschen ist, war die Situation 2023 noch eine andere. Im Team wurden die Grundlagen von maschinellem Lernen, neuronalen Netzwerken und Large Language Models (LLM) erarbeitet, um ein gemeinsames Fundament für weitere Entscheidungen erlangen zu können.
Die vielfältigen Anwendungsmöglichkeiten von KI in der Institution Bibliothek führten jedoch auch schnell zu einer Differenzierung der Arbeitsgruppe in spezielle Fachgruppen: Medienerschließung, Information-Retrieval und -kompetenzen, Kommunikation und Marketing. In der Erstgenannten wurden relevante Fragen der Erfassung von Metadaten von unterschiedlichen Objekttypen untersucht. An dieser Stelle ist anzumerken, dass an der Österreichischen Nationalbibliothek zusätzlich zum Bibliotheksbereich acht Sammlungen bestehen, die die unterschiedlichsten Objekttypen, vom klassischen Buch, über Fotografien, Karten, Partituren und Autografe bis zu Papyrusfragmenten erschließen.
Neben dem Blick nach innen, bei dem mögliche Anwendungsfälle innerhalb der Bibliothek identifiziert wurden, spielte der stete Blick nach außen eine fundamentale Rolle. Die Erfahrungen, Entwicklungen und Entscheidungen von anderen Bibliotheken stellten in der Regel den Startpunkt für eine Auseinandersetzung mit dem jeweiligen Thema innerhalb der Arbeitsgruppe dar. In diesem Zusammenhang kann die Wichtigkeit und Relevanz von Erfahrungsaustausch mit anderen Institutionen nicht ausreichend betont werden.
1.2 Bibliothekarische Vorbilder
Eines der ersten bibliothekarischen Vorbilder, das von der Arbeitsgruppe eingehender analysiert wurde, war ein Versuch der Belgischen Nationalbibliothek. Für ein Retrokatalogisierungsprojekt wurde nach einem Weg gesucht, eine große Menge an Ressourcen möglichst schnell zu katalogisieren. Dabei wurde das KI-Tool von Microsoft Power Automate (ein Werkzeug, das Automatisierungsabläufe relativ unkompliziert ermöglichen soll) dahingehend trainiert, dass Metadaten automatisch erstellt werden.[2] Da dieser Ansatz auch die formalen Metadaten umfasst, stieß dieses Vorgehen auf großes Interesse und führte schlussendlich zu einem angepassten Nachbau an der Österreichischen Nationalbibliothek. Die Ausführung zum belgischen Beispiel steht stellvertretend für die zahlreichen bibliothekarischen Vorbilder, die von der Arbeitsgruppe untersucht wurden. Die Erschließungsmaschine der Deutschen Nationalbibliothek[3] mit Einbindung des Tools Annif der Finnischen Nationalbibliothek, das KI-Projekt der DNB,[4] die Integration von GPT bei der Luxemburgischen Nationalbibliothek[5] oder aber das Tool Meteor, das in Zusammenarbeit von Norwegischer und Finnischer Nationalbibliothek entwickelt wurde[6] – diese Ansätze prägten und formten unsere Vorstellungen über die Implementierung von Tools der KI bei der Erschließung von Medien.
Ebenfalls rückte eine zentrale Frage bei der Sichtung unterschiedlicher Ansätze in den Vordergrund: Kommt eine proprietäre Anwendung zum Einsatz oder doch eine Open-Source-Lösung? Anders ausgedrückt, werden die leistungsstarken Modelle von Open AI (GPT-4o) und anderen Anbietern, die über kostenpflichtige Lizenzen subskribiert werden, verwendet, oder gibt es zufriedenstellende Open-Source-Alternativen, die lokal implementiert werden können? Im Zentrum steht dabei die Frage, ob die Verwendung von LLMs bei der Verarbeitung von urheberrechtlich geschützten Volltexten zulässig ist. Neben den bibliothekarischen Ansätzen anderer Institutionen war auch diese Thematik ausschlaggebend für weitere Entscheidungen an der Österreichischen Nationalbibliothek. Nach Abschluss der Arbeitsgruppe im Sommer 2024 wurde ein Pilotprojekt initiiert, dessen erklärtes Ziel ist, unterschiedliche Methoden zur Erfassung von formalen Metadaten durch die Integration von KI-Anwendungen zu testen. Im Folgenden wird dieses Pilotprojekt skizziert und vorgestellt.
2 Pilotprojekt
Aus der Sichtung bibliothekarischer Ansätze und durch den Austausch mit verwandten Institutionen bildeten sich zwei Arbeitshypothesen, die die Grundlage für das Projekt darstellen: (1) Die Extraktion von formalen Metadaten ausgewählter Ressourcentypen kann ausgebaut werden (1.1.) durch die Einbindung von KI-Anwendungen und (1.2) durch Automationsprozesse. (2) Kleinere, lokal implementierte Open-Source-Modelle liefern ähnliche Ergebnisse wie größere proprietäre Anbieter.
Basierend auf diesen Überlegungen wurde ein zweigleisiger Ansatz entwickelt, bei dem ein Performance-Vergleich zwischen einem proprietären, großen KI-Modell und einem lokal verwalteten KI-Modell gezogen wurde.[7] Der Vergleich bezog sich dabei auf die Qualität der erstellten Metadaten. Auf der einen Seite adaptierte, wie eingangs bereits erwähnt, die Österreichische Nationalbibliothek in Grundzügen den Workflow der Belgischen Nationalbibliothek mit Microsoft Power Automate, jedoch unter Einbindung einer Schnittstelle zu Open AIs GPT. Andererseits wurde ein Aufbau erstellt, bei dem das lokal gehostete LLM Llama-3.1-8B-Instruct für die Erzeugung von Metadaten getestet wurde. Durch diese zwei Pipelines wurde das Testmaterial geschickt und anschließend bewertet.

Schematische Darstellung des Workflows
2.1 Ausgangslage
Die Österreichische Nationalbibliothek ist im Besitz eines großen Bestandes öffentlich verfügbarer elektronischer Publikationen, die durch ein gesetzlich geregeltes Harvesting in regelmäßigen Abständen gesammelt werden. Es handelt sich um ein Konvolut von mehr als 20 000 unbearbeiteten elektronischen Publikationen, die manuell nur mit großem Personalaufwand erschlossen werden könnten. An dieser Stelle soll angesetzt werden, um die Erschließung automationsunterstützt so zu beschleunigen, um den Benützer*innen diese Dokumente zeitnah zur Verfügung stellen zu können.
Die Konzentration auf genau dieses Konvolut im Pilotprojekt hat allerdings auch weitere Gründe. So liegen uns einerseits die Dokumente bereits in elektronischer und somit maschinenlesbarer Form vor. Vorgelagerte ressourcenintensive Schritte, wie Digitalisierung und aufwendige Layout-Verarbeitung, können wir somit ausklammern.
Andererseits spielen die Herkunft der Dokumente sowie die dahinterliegenden Sammelrichtlinie eine relevante rechtliche Rolle. Unter der Bezeichnung „öffentlich verfügbare österreichische elektronische Publikationen“ verbergen sich Dokumente, die in Österreich hergestellt bzw. veröffentlicht wurden und zumeist in Verbindung mit einer öffentlichen Institution stehen. So finden sich darunter Berichte, Studien etc., die auf den Webseiten von Bundesministerien, Gemeinden, Ländern oder anderen (wissenschaftlichen) Institutionen veröffentlicht werden. Die Österreichische Nationalbibliothek gehört hierbei laut § 42h des Urheberrechts zu einem Kreis begünstigter Einrichtungen („Einrichtungen des Kulturerbes“), die diese Dokumente zu nicht kommerziellen, aber wissenschaftlichen Zwecken mit Methoden des „Text und Data Minings“ zum internen Gebrauch verarbeiten dürfen.[8] Rechtlich außerdem entscheidend ist, wie im Weiteren noch genauer erläutert, dass nie der gesamte Volltext verarbeitet werden soll, sondern ausschließlich der Text der für die Metadatenerfassung relevanten Seiten eines Dokuments, wie der Text aus dem Titelblatt und dem Impressum.
2.2 Phase 1
Aus dem Pool der 20 000 Dokumente wurde ein Datenset von 200 Stück ausgewählt, mit denen eine erste Pilotierung erfolgte. Dieses Datenset konnte einen ausreichenden Überblick über die Qualität der Testergebnisse liefern und war zudem klein genug, dass eine intellektuelle Validierung der Ergebnisse realistisch durchführbar blieb.
Bei diesen 200 Dokumenten handelte es sich um ein kuratiertes Testset, das ausschließlich aus Monografien bestand. Komplexere Ressourcenarten wie Zeitschriften oder Teile von Reihen wurden für die ersten Tests bewusst nicht berücksichtigt.
2.2.1 Aufbau des Workflows
Allgemein gesehen kann der Ablauf in drei Grundblöcke (s. Abbildung 1) unterteilt werden: 1. Vorverarbeitung der PDFs, 2. LLM, 3. Postprozessierung der Metadaten.
Bei der Vorverarbeitung der PDFs werden nur die für die Erschließung relevanten Seiten (Titelseite, Impressum) extrahiert. Die verwendeten Sprachmodelle verarbeiten ausschließlich Text und keine Bilder oder PDFs. Daher umfasst der Vorbereitungsschritt der PDFs auch eine OCR der relevanten Seiten, um den so generierten Text an das LLM weitergeben zu können. Mit Microsoft Power Automate und dem AI Builder ist es möglich, PDFs in einer verarbeitbaren Qualität OCR zu lesen. Alternativ wäre es durch Python-Pakete wie pdftotext möglich, den Text aus einem elektronischen Dokument zu extrahieren, allerdings werden hier wichtige Informationen ausgelassen. Zum Beispiel werden die verantwortlichen Körperschaften bei dieser Art von Dokument gerne in der Form von Logos – ohne hinterlegten Text – angegeben. Solche Informationen gehen durch eine Textextraktion von pdftotext verloren. Da wir die Verantwortlichkeitsangabe oder die Angabe des geistigen Schöpfers als essenziell für die Auffindung von Ressourcen sehen und diese somit prioritär zu erfassen sind, haben wir den Weg der OCR für die Textextraktion gewählt. Hiermit können wir auch garantieren, dass exakt dieselben Prompts für das lokale LLM wie auch für die proprietäre Variante zur Verfügung stehen und die Ergebnisse vergleichbar sind. Der letzte Schritt in der Vorverarbeitung der PDFs, die nur mehr als stark gekürzter OCR-Text vorliegen, ist die Einbettung in einem Prompt und stellt den Übergang zum zweiten Block des Workflows, die Interaktion mit den LLMs, dar. Der PDF-Text wird in einer Variable abgespeichert und wird als Teil des Prompts an das LLM gegeben.
This is the title page of a publication: [OCR-Text]
Extract metadata from the following text and return the result only in this exact format:
Title / Title Supplement / Author / Publisher / Publication Period / Place of Publication / Editor
If any of these fields are missing, replace them with [N/A].
The place of publication must be a city, not a country.
Return ONLY the metadata in the specified format.
No labels, explanations, or additional text.
Do not include abstracts or summaries.
Es ist ersichtlich, dass die Metadaten in Form einer Liste abgefragt werden, wobei die einzelnen Kategorien durch einen Schrägstrich getrennt werden (Titel, gefolgt von Titelzusatz, Autor*innen, Verlag, Veröffentlichungszeiträume, Veröffentlichungsorte, Herausgebende). Mit diesem Schritt wollen wir gewährleisten, dass der produzierte Output vom LLM in seiner Form stabil bleibt und so für eine automatisierte Weiterverarbeitung geeignet ist. Die Position in der Liste gibt Auskunft darüber, um welche Kategorie es sich handelt. Die Liste ist aus der Arbeit mit Power Automate/ChatGPT entstanden. Im weiteren Verlauf des Projekts, bei dem wir uns vermehrt mit einer lokalen Anwendung auseinandersetzen, soll der generierte Output in einem von uns vordefinierten JSON-Schema erstellt werden. Der Prompt, wie er hier abgebildet ist, ist das Ergebnis vieler Tests. In dieser Variante konnten die wenigsten Fehler und die größte Stabilität verzeichnet werden.
Damit kommen wir auch schon zum letzten Block des Workflows, der Postprozessierung des Outputs. Durch ein stabiles Schema können die Daten gezielt weiterbearbeitet werden. Da das verfolgte Ziel des Projekts der Qualitätsvergleich dieser zwei LLMs ist, war es nicht essenziell, vollständige MARC21-Einträge zu erhalten. Für die manuelle Evaluierung im Testsetting wurden die Metadaten daher in Exceltabellen gespielt. Konzeptuell verfolgen wir für die Erstellung von bibliographischen Katalogdaten die Template-Strategie, bei der in definierten MARC-Vorlagen ausgewählte Felder durch den variablen Output aus einem LLM ergänzt werden (also nur einzelne Metadatenfelder mittels LLM erstellt werden, nicht der gesamte Record).
Im nächsten Schritt werden die zwei entwickelten Erschließungsansätze (Power Automate/ChatGPT und lokales Llama) im Detail vorgestellt. Der Fokus der Beschreibung verlagert sich nun auf die beiden ersten Grundblöcke unserer Workflows: die Vorprozessierung der PDFs und die Interaktion mit dem LLM.
2.2.2 Power Automate/GPT
Der Power Automate Workflow ist tief verankert im Universum von Microsoft (Sharepoint, OneDrive, Office) und diese Integration ist für den Bedienungserfolg an der Österreichischen Nationalbibliothek entscheidend.
Der Aufbau setzt sich dabei folgendermaßen zusammen. Start- und Ausgangspunkt ist ein Ordner, in unserem Fall ein Sharepoint-Ordner. Der Flow (die Ausführung) wird automatisch gestartet, wenn in diesem speziellen Ordner eine Datei erstellt (oder dorthin verschoben) wird (s. Abbildung 2).
Mit dieser Aktion wird automatisiert eine Kette von weiteren Aktionen eingeleitet. Die erste zentrale Aktion ist dabei die bereits erwähnte OCR-Lesung der Ressourcen. Der OCR-Text wird in einer Variable gespeichert und bleibt dynamisch (nach Abschluss des Flows wird der Wert durch den nächsten Flow geändert). Dabei wird Zeile für Zeile der OCR-Text des vorliegenden Dokuments zu einem Gesamttext aneinandergekettet.

Power Automate Flow (Auszug)
In einem nächsten Schritt wird der Prompt als Text-String mit der Variable des OCR-Texts ergänzt und in ein JSON gepackt. Die formalen Kriterien des JSON-Schemas für eine korrekte Interpretation des Prompts werden von Open AI vorgegeben. Der Prompt wird in besagtem Schema über einen HTTP-Post Request an die API von Open AI zu Chat GPT übermittelt. Um die API zu benützen, wird ein Key benötigt, der bei Open AI mittels Kreditkartenzahlung erworben werden kann. In diesem Schritt verlassen die Informationen das Power Automate Universum, der Input wird nun von dem ausgewählten Sprachmodell, in unserem Fall gpt-4o-2024-08-06, verarbeitet. Daraus wird eine JSON-Antwort retourniert, welche geparsed werden muss, um die relevante Information aus dem Output zu extrahieren. Um zu vermeiden, dass kreative Metadaten erstellt werden, sogenannte Halluzinationen, die nicht die vorhandenen Informationen aus dem jeweiligen OCR-Text verwenden, wurde die Temperatur des Sprachmodells auf 0 gestellt. Damit soll gewährleistet werden, dass abgeleitet vom Input ausschließlich die Antwort mit der höchsten Wahrscheinlichkeit erhalten wird.
Obgleich von Microsoft die Power-Automate-Anwendung als einfach bedienbar und auch von Nicht-Programmierenden als leicht verwendbar angepriesen wird, war ein hoher Aufwand notwendig, den Workflow in dieser Form aufzusetzen. Die bausatzartige, modulare Architektur der Anwendung ist für Neulinge, wie wir es waren, anfangs befremdlich und wenig intuitiv. Zahllose Trials and Errors waren notwendig, um die Module in Einklang zu bringen, die nach außen einfach sprechende Namen haben, aber unter der Oberfläche dann doch reguläre Programmierkenntnisse erfordern. Zusätzlich sind einige der Funktionalitäten nur durch einen Premium-Zugang erhältlich und setzen eine weitere kostenpflichtige Subskription voraus. In diesem Zusammenhang war das Einbinden von Open AI wesentlich unkomplizierter, ein Account für den API-Zugang ist notwendig und inkludiert auch ein Guthaben, das gekauft werden muss, um die Schnittstelle verwenden zu können. Von diesem Guthaben werden die Kosten von Anfragen (Input) und die generierten Antworten (Output) abgezogen.
Ist aber der Power Automate Flow einmal aufgesetzt und funktionsfähig, erlaubt die vollständige Automatisierung ein sehr flüssiges Arbeiten. In anderen Worten, funktioniert der Ablauf, werden Dateien in den Ordner verschoben und einige Augenblicke später wird das Ergebnis automatisch in die Excel-Liste eingetragen. Power Automate operiert im Hintergrund und muss für die Verwendung nicht aktiv bedient werden. Einer der Vorteile, der daraus entsteht, ist, dass Mitarbeitende somit leicht automatisiert Metadateien extrahieren können. Das Einzige, das gemacht werden muss, ist eine Datei in einen Ordner zu geben – der Kontakt mit der KI erfolgt im Hintergrund und ist, abgesehen von den Ergebnissen, nicht wahrnehmbar.
2.2.3 Lokales LLM: Llama-3.1-8B-Instruct
Der zweite Ansatz, der im Projekt umgesetzt wurde, versucht sich aus dem Microsoft/OpenAI Universum zu entfernen und ein lokales, deutlich kleineres Sprachmodell für die Metadatenextraktion zu verwenden. Dies war nur teilweise möglich, da zu diesem Zeitpunkt einige Komponenten, beispielsweise die OCR, Probleme darstellten, deren Lösung wir nicht innerhalb des Projekts verorteten. Aus diesem Grund, sowie dem Wunsch der Vergleichbarkeit der Ergebnisse wurde der Abschnitt der OCR-Lesung für das lokales LLM aus dem Power Automate Workflow verwendet. Der OCR-Text wurde in einer simplen Textdatei gespeichert.

Dialogerstellung bei Llama-3.1-8B

Übergabe des Dialogs an die Chat Completion
Aufgrund von Erfahrungsberichten anderer Bibliotheken[9] mit lokalen LLMs ist unsere Entscheidung auf die Llama-Familie von Meta gefallen. Nachdem die ÖNB eine GPU zur Verfügung hat, waren die technischen Gegebenheiten der GPU als auch das Leitmotiv „use the smallest AI that works“[10] für die LLM-Größe von 8 Milliarden Parameter ausschlaggebend. Der von Meta zur Verfügung gestellte Code für die Interaktion (in unserem Fall Chat Completion) mit dem LLM wurde von uns so adaptiert, dass es vom Prinzip gleich funktioniert wie der Workflow mit GPT. Der OCR-Text wird in der Dialogfunktion mit dem Prompt an das LLM übergeben und die generierten Antworten in eine Excel-Liste gespielt. Über eine Vorschleife werden die OCR-Texte (Variablenname txtStr) und deren Dateiname in eine Dialogliste gespeist (s. Abbildung 3).
Auch in diesem Dialog gibt es einen statischen Teil, der stets dieselbe Aufforderung der Metadatenextraktion enthält und einen dynamischen Teil (OCR-Text= txtStr), der jedes Mal durch eine neue Datei ersetzt wird. Das dahinterliegende Prinzip ist also bei beiden LLMs ident. Durch eine weitere Vorschleife (s. Abbildung 4) werden die einzelnen Dialoge für jede Datei über die Chat Completion vom Sprachmodell verwendet.
Ohne die Unterstützung der Softwareentwickelnden und Programmierenden der ÖNB hätten wir diesen Schritt nicht umsetzen können. Die technischen Gegebenheiten der GPU mit lokalem Host stellten für uns eine neue und ungewohnte Umgebung dar, deren Spielregeln wir nur sukzessive zu verstehen lernten. Das führte auch dazu, den Fokus auf die Vorprozessierung der Dateien, bzw. Postprozessierung des LLM-Outputs zu lenken. Nachdem hier jeder Schritt der Verarbeitung von uns begleitet wird, ist der Grad der Involvierung sehr hoch (mit dem positiven Effekt, dass die Lernkurve des technischen Verständnisses stark angestiegen ist). Gleichzeitigt bedeutet diese Involvierung auch einen hohen Grad an zeitintensiver Betreuung. Der Workflow ist noch stark prototypisch, die Verwendung durch andere Mitarbeitende nur eingeschränkt zielführend. Außerdem muss gesagt werden, dass der Automatisierungsgrad bei dieser Pipeline noch in den Kinderschuhen steckt und viele Arbeitsstunden notwendig sind, Abläufe zu streamlinen.
2.2.4 Testmethode und Evaluierung
Das Testdatenset von 200 elektronischen Publikationen wurde in zehn Pakete von je 20 Dokumenten aufgeteilt. In der ersten Testphase war für uns relevant, nicht nur herauszufinden, wie akkurat die jeweiligen Metadaten sind, sondern auch welche Arten von Fehlern bei der maschinellen Erschließung häufig auftreten können. Zur Erinnerung: Die folgenden Metadatenkategorien wurden erfragt: Titel, Titelzusatz, Autor*innen, Verlag, Veröffentlichungszeitraum, Veröffentlichungsort und Herausgebende.
Grob teilen wir die Fehlerbereiche in zwei Kategorien auf: inhaltliche Fehler und Fehler der Zeichensetzung. Unter inhaltlichen Fehlern verstehen wir qualitative Aspekte in Bezug auf den Gesamtinhalt der sieben Metadatenkategorien. So sollte bei fehlerhaften Metadaten pro Metadatenkategorie angemerkt werden, um welche Art Fehler es sich handelte: leerer Inhalt (1), doppelter Inhalt (2), falscher Inhalt (3), falsche Zuweisung (4), Halluzination (5), OCR-Fehler (6), unvollständiger Inhalt (7). Pro Metadatenfeld kann nur eine Kategorie gewählt werden.
Ein leerer Inhalt (1) geht davon aus, dass eine Kategorie nicht befüllt wurde, während ein falscher Inhalt (3) zusammenfasst, wo tatsächlich inkorrekte Inhalte angeführt wurden. Ein unvollständiger Inhalt (7) wurde dann ausgewählt, wenn z. B. nur Teile des Titels erfasst wurden oder auch nicht alle Autor*innen genannt wurden. Eine falsche Zuweisung (4) sollte gewählt werden, wenn Metadaten zwar richtig erkannt wurden, aber nicht den richtigen Metadatenkategorien zugewiesen wurden. Ein klassisches Beispiel wäre die Unterscheidung zwischen Titel und Untertitel oder Autor*in und Herausgebende. Da die Evaluierungsmethode vor den ersten Testergebnissen festgelegt wurde, wurden auch Fehlerarten antizipiert, die so tatsächlich nicht oder kaum vorgefallen sind, wie zum Beispiel der doppelte Inhalt (2) oder die Halluzination (5).
Bei den Fehlern in der Zeichensetzung wurde nicht mehr unterschieden, bei welchen Kategorien Abweichungen auftraten, dafür welche Art an Fehlern auf Zeichenebene allgemein wie häufig vorkommt. Dazu wurden vier Ebenen evaluiert: Buchstaben (a), Groß-/Kleinschreibung (b), Leerzeichen (c), Sonderzeichen (d). Während entgegen der Antizipation auf graphematischem Level (a, b) kaum Fehler zu verzeichnen waren, wurde hinsichtlich der Leer- und Sonderzeichen (c, d) untersucht, inwiefern Interpunktion und andere typografische Zeichen bei der maschinellen Erschließung relevant sind. An dieser Stelle sei angemerkt, dass hierbei besondere bibliothekarische Sonderzeichen, wie die ISBD-Zeichensetzung, nicht als fehlerhaft markiert wurden, sollten diese gefehlt haben. Prinzipiell sollte sich das Thema Zeichensetzung allerdings als ein vernachlässigbares hinsichtlich der Evaluierung herausstellen.
Es handelt sich also um ein ausgeklügeltes System einer qualitativen Evaluierung. Da wir nicht alle Kategorien vorhersehen konnten, gab es zudem die Möglichkeit unerwartete Fehler oder allgemeine Kommentare zu notieren. Zusammenfassend wollten wir wissen, wie viele Dokumente vollständig korrekt erschlossen wurden, wie viele nicht – und darunter, bei wie vielen Dokumenten welche Fehlerarten bei welchen Metadatenkategorien am häufigsten vorkamen.
2.2.5 Ergebnisse und Interpretation
Bei der Zeichensetzung konnten wir beobachten, dass beide Ansätze ähnlich gute Ergebnisse liefern – und kaum Fehler auftraten. Bei GPT wurden nur 27 fehlerhafte Datensätze markiert, bei Llama waren es doppelt so viele. Die Zeichensetzung sollte sich jedoch in der Evaluierung als vernachlässigbare Kategorie erweisen und wird auch im Folgenden nicht weiter beachtet.
Auf inhaltlicher Ebene konnten GPT 50 und Meta Llama 25 vollständig korrekte Datensätze erstellen – von 200 Dokumenten. Das bedeutet im Umkehrschluss, dass GPT in 75 % aller Fälle mindestens einen Fehler in einer Kategorie eingebaut hat und Llama sogar in 88 %. Wir wollten in weiterer Folge wissen, wie gravierend die Fehler der fehlerhaften Metadaten waren – sind sie im Sinne einer Katalogisierungsunterstützung noch brauchbar oder nicht? Dabei beträgt die durchschnittliche Fehleranzahl auf inhaltlicher Ebene 1,58 bei GPT und 2,46 bei Meta Llama.
Werfen wir einen Blick auf die Kategorie „Titel“ (s. Abbildung 5), so wird sofort sichtbar, dass sowohl GPT als auch Llama annähernd ähnlich oft (GPT 125, Llama 104) den Titel richtig erkannt haben. Die meisten Fehler finden wir bei falschen Inhalten (Llama 62, GPT 27), leeren Inhalten (GPT 25, LLama 2), unvollständigen Inhalten (Llama 16, GPT 12) und falschen Zuweisungen (Llama 12, GPT 9).

Fehleranalyse Kategorie „Titel“
Untersuchen wir hingegen die erfassten Autor*innen, die geistigen Schöpfer*innen, so können wir die Aussage treffen, dass die erstellten Angaben überwiegend korrekt sind (GPT 158, Llama 136). In wenigen Fällen werden an dieser Stelle Fehler produziert – zu den häufigsten Fehlerkategorien gehören hier der leere Inhalt im Falle von GPT (24 Dokumente) und die falsche Zuweisung bei Llama (22 Fälle).
Wir konnten durch unsere Evaluierungsmethode durchaus feststellen, wie unterschiedlich Metadatenfelder durch die einzelnen Ansätze erfasst wurden und worin die häufigsten Fehlerquellen bestanden. Auch wenn es zu Fehlern kommt und die gewonnenen Metadaten nicht den derzeitigen intellektuellen Erfassungsstandards entsprechen, so können trotzdem maschinell Metadaten extrahiert werden, die im Sinne einer Katalogisierungsunterstützung intellektuell weiterverarbeitet werden können.

Fehleranalyse Kategorie „Autor*innen“
2.2.6 Daraus abgeleitete Konsequenzen für Phase 2
Aus dieser Testrunde haben wir erste Konsequenzen, auch in Bezug auf unsere Arbeitshypothesen, abgeleitet: (1) Das lokale, deutlich kleinere Sprachmodell liefert gegenüber GPT an vielen Stellen stabile Ergebnisse und zeigt das Potenzial für bessere Ergebnisse durch ein Finetuning. (2) Die Kombination von Power Automate und GPT kann, wenn sie erst einmal aufgesetzt ist, ein unterstützendes Tool für die Erschließung darstellen. Rechtliche und technische Barrieren beschränken das Einsatzgebiet vorerst. (3) Unterschiedliche Anwendungsgebiete verlangen unterschiedliche Lösungen – es gibt nicht den einen KI-unterstützten Ansatz, sondern eine Vielzahl, abhängig nach den Bedürfnissen und Anforderungen, die daran gestellt werden.
2.3 Phase 2
Im Zusammenhang mit unserer ersten abgeleiteten Erkenntnis aus Projektphase 1, die Weiterentwicklung des lokalen LLMs, hat sich durch direkten Austausch beim 2. Österreichischen Bibliothekskongress die Möglichkeit einer Zusammenarbeit mit der Bibliothek der Technischen Universität Wien ergeben. Anfänglich als theoretischer Dialog aufgefasst, entwickelte sich schnelle eine kleine Arbeitsgruppe, die die Performance-Verbesserung des lokalen LLMs zum Ziel hat. So wurde entschieden, ein Trainingsset für die Feinabstimmung des LLMs zu erstellen, um damit den Bedürfnissen der Metadatenextraktion besser begegnen zu können, wie im Folgenden erläutert.
2.3.1 Feinabstimmung mit QLoRA
Mithilfe von QLoRA[11] adaptieren wir ein LLM,[12] um formale Metadaten aus PDFs zu extrahieren. QLoRA ist eine effiziente Methode zur Adaption von LLMs unter Berücksichtigung von Ressourcenbeschränkungen. Dies wird erreicht, indem das zu adaptierende LLM dabei unverändert bleibt und nur die Parameter kleiner hinzugefügter Module, der so genannten Adapters, beim Training gelernt werden müssen. In unserem Fall kann so die Anzahl der zu trainierenden Parameter auf ca. 0,5 % des Basismodells reduziert werden.
Als Datenbasis für das Training dienen 2 521 PDFs und die entsprechenden von Erschließer*innen erstellten Metadaten. Wir extrahieren den Textinhalt der PDFs und beschneiden lange Texte. Es sei betont, dass keine OCR stattfindet. Alle vor dem Jahr 2025 erstellten Datensätze dienen als Trainingsdaten (2 381), wohingegen wir alle neueren Datensätze als Testdaten (140) nutzen.
Wir leiten das Basismodell mittels one-shot prompting[13] an, die Metadaten als JSON nach einem bestimmten Schema zu extrahieren. Zusätzlich beschränken wir bei der Extraktion der Metadaten aus den Testdaten das LLM darauf, JSON nach eben diesem Schema zu generieren.[14] Wir trainieren für lediglich 5 Epochen, da die Verlustkurve bereits stark abflacht.
Wir evaluieren die erstellten Metadaten anhand des Anteils richtig extrahierter Felder, abzüglich der Anzahl zusätzlicher Felder, die nicht in den von Erschließer*innen erstellten Metadaten enthalten sind. Hervorzuheben ist, dass in dieser Form der Evaluation bereits kleine Fehler (z. B. fehlende Punktuation, fehlerhafte Normalisierung) dazu führen, dass das gesamte Feld als falsch gewertet wird. Das auf die Extraktionsaufgabe adaptierte LLM schneidet deutlich besser ab (51 % korrekt extrahierte Felder) als das Basismodell ohne Adaption (19 % korrekt extrahierte Felder). Hauptgründe für die hohe Fehlerquote des Basismodells und damit zugleich für den Unterschied zum adaptierten Modell liegen in der fehlenden Normalisierung von Namen und der Extraktion von zusätzlichen Feldern, die zwar faktisch korrekt sind, jedoch nicht in den von Erschließer*innen erstellten Metadaten vertreten sind.
2.3.2 Ausblick: nächste Schritte und weitere Phasen
Die zweite Projektphase im Jahr 2025 sollte neben der Verbesserung der Leistung eines lokalen LLMs untersuchen, ob die beiden Ansätze (oder auch andere maschinelle Verfahren) auch für andere Erschließungsszenarien unterstützend eingesetzt werden können. An der Österreichischen Nationalbibliothek werden Inhaltsverzeichnisse von Sammelbänden, aber auch von wissenschaftlichen Zeitschriften, gescannt („IV-SCAN“) und mit den darin enthaltenen Informationen Artikeldatensätze erstellt. Aufgrund der Diversität der Layouts dieser Inhaltsverzeichnisse wird intellektuell stark eingegriffen.
Erste Tests mit Power Automate/GPT haben ergeben, dass gerade bei einspaltigen Inhaltsverzeichnissen sowohl die OCR-Lesung als auch die Metadatenextraktion und -kategorisierung funktioniert. Im weiteren Projektverlauf wird der automatisierte Workflow dahingehend ausgebaut, um sowohl bei Retroprojekten der Zeitschriftenerschließung als auch im operativen Tagesgeschehen aktiv einsetzbar zu sein.
Das Potenzial zur maschinellen bzw. automationsunterstützten Erschließung sehen wir auch bei weiteren Ressourcenarten und Beständen der Österreichischen Nationalbibliothek. Formale Metadaten zu extrahieren, diese in den Katalog zu integrieren und damit eine Zugänglichkeit der Dokumente überhaupt zu ermöglichen, ist das primäre Ziel. Qualitativ hochwertige, mit Normdaten angereicherte und klassifizierte bzw. beschlagwortete Datensäte mithilfe maschineller Unterstützung zu erstellen, ist ein langfristiges Ziel, das in Folgeprojekten erarbeitet wird.
3 Fazit
Mit dem Pilotprojekt konnte an der Österreichischen Nationalbibliothek ein erster Schritt in Richtung automations- und KI-unterstützer formaler Erschließung gesetzt werden. Die erste Projektphase hat gezeigt, dass KI-gestützte Verfahren zur Metadatenextraktion grundsätzlich einsetzbar sind, jedoch (noch) nicht die Qualität intellektuell erstellter Katalogdaten erreichen. Während GPT in der Evaluierung häufiger vollständig korrekte Ergebnisse lieferte, zeigte das lokale LLM aber Potenzial für weitere Optimierung, insbesondere durch ein Fine-Tuning. Letzteres wurde in der zweiten Projektphase aufgegriffen und damit begonnen, das Modell gezielt anzupassen.
Die Herausforderungen – von rechtlichen Rahmenbedingungen über die technische Infrastruktur bis hin zur Anwendung des Modells – sind nicht zu unterschätzen. Jedoch dürfen diese Bedenken das Experimentieren, Ausprobieren und Testen von unterschiedlichen Möglichkeiten nicht von Beginn an behindern. Die gewonnene Expertise aus eben diesem Orientieren und Navigieren auf besagtem neuem Feld ist ein fundamentales Asset und bildet den Grundstock für darauf aufbauende Projekte, Anwendungen und Entscheidungen.
Dieses Fazit kann nur eine Zwischenaufnahme darstellen und kann erst mit Abschluss des Projekts finalisiert werden.
Über die Autoren

Marc-Paul Ibitz

Kerstin Katzlberger

Tobias Weberndorfer
© 2025 bei den Autoren, publiziert von Walter de Gruyter GmbH, Berlin/Boston
Dieses Werk ist lizenziert unter der Creative Commons Namensnennung 4.0 International Lizenz.
Articles in the same Issue
- Titelseiten
- Editorial
- Themenschwerpunkt KI
- Künstliche Intelligenz in Bibliotheken – anwenden und gestalten
- pica – Open-Source-Tool zur Analyse und Transformation bibliografischer Metadaten
- KI trifft Katalogisierung. Tests zur automatisierten Erstellung von formalen Metadaten an der Österreichischen Nationalbibliothek
- Training von KI-Sprachmodellen: Was das geltende Urheberrecht & Co. erlauben
- Von der Entdeckung zur Beschreibung: Generative KI in wissenschaftlichen Bibliotheken
- Menschen, Maschinen und Macht
- Fachbeiträge
- #bibaufmöbeln: Eine Kampagne zur Neugestaltung und Modernisierung der Zentralen Hochschulbibliothek Lübeck
- Elicitation Of Requirements and Development of Production Workflows for Accessible Diamond Open Access Publications
- Adopting EOSC on the ground – Integrating (European) Research infrastructure into national institutions
- Haager Konvention, KRITIS und Konzeption Zivile Verteidigung
- Tagungsbericht
- #BibliothekenEntschlossenDemokratisch
- Zwei Diamanten sind besser als einer
- Nachrichten
- Nachrichten
- Produktinformationen
- Produktinformationen
- ABI Technik-Frage
- Was können Bibliotheken und Archive auch ohne großen Aufwand für die Verbesserung ihrer IT-Sicherheit tun?
- Rezensionen
- Blumesberger, Susanne, Igor Eberhard, Elisabeth Hafeneder, Gertraud Novotny und Elisabet Torggler (Hg.): Handbuch Repositorienmanagement. Grundlagen – Anwendungsfelder – Praxisbeispiele. Graz: Graz University Library Publishing 2024. – 595 S. – ISBN (kartoniert) 978-3-99165-932-7, eISBN 978-3-903374-23-2.<fnote> PDF (CC BY 4.0) herunterzuladen unter: https://library-publishing.uni-graz.at/index.php/lp/catalog/book/60. Zuletzt geprüft am 20.09.2025.</fnote> 40,00 €
- Kuttner, Sven, Anna Lingnau, Johannes Mangei (Hg.): Medium Buch 4 (2022). Sammlungen digital denken. Medium Buch – Wolfenbütteler interdisziplinäre Forschungen 4. – IV, 188 Seiten, 42 Abb., 4 Diagramme, 5 Tabellen – ISBN 978-3-447-18326-0. 48,00 €
- New horizons in artificial intelligence in libraries. Hrsg. von Edmund Balnaves, Leda Bultrini, Andrew Cox und Raymond Uzwyshyn. IFLA-Publications 185. Berlin/Boston: de Gruyter Saur, 2025. – ISBN 978-3-11133-643-5 (eBook),<fnote> Open Access herunterzuladen unter: https://www.degruyterbrill.com/document/doi/10.1515/9783111336435/html#bibliographicData. Zuletzt geprüft am 20.09.2025.</fnote> ISBN 978-3-11133-571-1 (gebunden). Frontmatter 9 S., Inhalt 384 S., 15 Abb., 31 farbige Abb. – 89,95 €
- Veranstaltungskalender
- Veranstaltungskalender
Articles in the same Issue
- Titelseiten
- Editorial
- Themenschwerpunkt KI
- Künstliche Intelligenz in Bibliotheken – anwenden und gestalten
- pica – Open-Source-Tool zur Analyse und Transformation bibliografischer Metadaten
- KI trifft Katalogisierung. Tests zur automatisierten Erstellung von formalen Metadaten an der Österreichischen Nationalbibliothek
- Training von KI-Sprachmodellen: Was das geltende Urheberrecht & Co. erlauben
- Von der Entdeckung zur Beschreibung: Generative KI in wissenschaftlichen Bibliotheken
- Menschen, Maschinen und Macht
- Fachbeiträge
- #bibaufmöbeln: Eine Kampagne zur Neugestaltung und Modernisierung der Zentralen Hochschulbibliothek Lübeck
- Elicitation Of Requirements and Development of Production Workflows for Accessible Diamond Open Access Publications
- Adopting EOSC on the ground – Integrating (European) Research infrastructure into national institutions
- Haager Konvention, KRITIS und Konzeption Zivile Verteidigung
- Tagungsbericht
- #BibliothekenEntschlossenDemokratisch
- Zwei Diamanten sind besser als einer
- Nachrichten
- Nachrichten
- Produktinformationen
- Produktinformationen
- ABI Technik-Frage
- Was können Bibliotheken und Archive auch ohne großen Aufwand für die Verbesserung ihrer IT-Sicherheit tun?
- Rezensionen
- Blumesberger, Susanne, Igor Eberhard, Elisabeth Hafeneder, Gertraud Novotny und Elisabet Torggler (Hg.): Handbuch Repositorienmanagement. Grundlagen – Anwendungsfelder – Praxisbeispiele. Graz: Graz University Library Publishing 2024. – 595 S. – ISBN (kartoniert) 978-3-99165-932-7, eISBN 978-3-903374-23-2.<fnote> PDF (CC BY 4.0) herunterzuladen unter: https://library-publishing.uni-graz.at/index.php/lp/catalog/book/60. Zuletzt geprüft am 20.09.2025.</fnote> 40,00 €
- Kuttner, Sven, Anna Lingnau, Johannes Mangei (Hg.): Medium Buch 4 (2022). Sammlungen digital denken. Medium Buch – Wolfenbütteler interdisziplinäre Forschungen 4. – IV, 188 Seiten, 42 Abb., 4 Diagramme, 5 Tabellen – ISBN 978-3-447-18326-0. 48,00 €
- New horizons in artificial intelligence in libraries. Hrsg. von Edmund Balnaves, Leda Bultrini, Andrew Cox und Raymond Uzwyshyn. IFLA-Publications 185. Berlin/Boston: de Gruyter Saur, 2025. – ISBN 978-3-11133-643-5 (eBook),<fnote> Open Access herunterzuladen unter: https://www.degruyterbrill.com/document/doi/10.1515/9783111336435/html#bibliographicData. Zuletzt geprüft am 20.09.2025.</fnote> ISBN 978-3-11133-571-1 (gebunden). Frontmatter 9 S., Inhalt 384 S., 15 Abb., 31 farbige Abb. – 89,95 €
- Veranstaltungskalender
- Veranstaltungskalender