Zusammenfassung
Dieser Artikel thematisiert die technische Umsetzung eines Webportals und einer SQL-Datenbank (Output.UP), um die manuelle Erfassung und Auswertung von wissenschaftlichen Publikationen für die Universitätsbibliothek Potsdam weitestgehend zu automatisieren. Ein besonderes Augenmerk wird auf die Importe mittels API von ORCID, Crossref und Unpaywall gelegt. Nach Abschluss der Testphase wird Output.UP in einem Git-Repository für die Nachnutzung zur Verfügung gestellt.
Abstract
The paper focuses on the technical implementation of a web portal and SQL database (Output.UP) as automation system for the collection and analysis of scientific publications for the Potsdam University Library, with a pecial emphasis on imports via API from ORCID, Crossref and Unpaywall. After the test phase, Output.UP will be made available in a Git repository for subsequent use.
Als größtem wissenschaftlichen Standort in Brandenburg ist es der Universität Potsdam ein Anliegen, ihre Wissenschaftler*innen bei der Veröffentlichung ihrer Forschungsergebnisse /-erkenntnisse zu unterstützen. Seit 2015 wird dies zusätzlich durch einen DFG-geförderten Publikationsfonds[1] umgesetzt. Um den Überblick über das Publikationsaufkommen[2] und die Kosten sowie die Kostenart (z. B. page charge, colour charge) zu behalten, wurden Daten aus dem Publikationsfonds und externe Daten zunächst manuell in einer Excel-Datei erfasst und auf diese Art jährlich eine Outputanalyse erstellt. Die daraus resultierenden Ergebnisse werden als Basis für Statistiken, Rankings im Bereich von Open Access (OA) und seit 2018 als Segment im Mittelverteilungsmodell der Universitätsbibliothek (UB) und vom Dezernat 1 für Planung, Statistik und Forschungsangelegenheiten an der Universität Potsdam genutzt.[3]
Um den bestehenden Workflow und die immer komplexer werdende Bearbeitung im Bereich von Importen und Auswertungen zu optimieren, wurde das System in ein Webportal mit einer SQL-Datenbank (Output.UP) überführt. In den letzten Jahren wurde die Outputanalyse mithilfe einer Excel-Datei von der Dezernentin und mehreren Kolleg*innen der Medienbearbeitung der UB erstellt. Dabei wurden Daten aus verschiedenen Quellen, wie z. B. Exporte von Verlagen, Informationen zu Veröffentlichungen per Mail sowie Daten aus dem Publikationsfonds manuell zusammengetragen. Ziel von Output.UP ist eine größtmögliche Automatisierung der Erfassungsprozesse. Insbesondere dem vereinfachten Import – wenn möglich automatisch über application programming interfaces (API) – und der Nachnutzbarkeit für andere Einrichtungen wurde ein hoher Stellenwert beigemessen.
Zu Beginn des Projektes wurden Fehler und neue Anforderungen ausschließlich von der Dezernentin der Medienbearbeitung in GitLab eingetragen. Im weiteren Verlauf sind Wissensträger*innen hinzugekommen, welche die Erfassung bisher mit Excel vornahmen. Für eine bessere Übersicht wurde zusätzlich eine Dokumentation im internen Wiki Confluence hinterlegt. In regelmäßigen Meetings wurden die Anforderungen an das System und neue Bedürfnisse besprochen sowie die Fortschritte vorgestellt. Dadurch ergaben sich Korrekturen, die z. B. durch die unterschiedliche Interpretation von Begrifflichkeiten entstehen. Zumeist erfolgte eine gezielte und schnelle Anpassung. Parallel wurden die bisherigen Erfahrungen ausgetauscht und das Programm den Anforderungen entsprechend angepasst. Im Dezernat für Digitale Dienste (DDD) der UB fanden ebenfalls Meetings statt. Die internen Prozesse wurden in Sprints definiert (im Rahmen der Organisationsmethode Scrum[4]), um Aufgaben gezielt in Etappen zu bearbeiten. Dadurch kann schnell auf sich ergebende Veränderungen eingegangen werden.
Ein wesentliches Ziel bei der Implementierung von Output.UP ist die Nachnutzbarkeit. Diesem wird nach Abschluss des Testbetriebes mit der Veröffentlichung in einem Git-Repository Rechnung getragen. Das bietet anderen Einrichtungen die Möglichkeit, das Portal mit möglichst geringem Aufwand an die Einrichtungsspezifika anzupassen und zu nutzen. Für die Umsetzung müssen jedoch noch einige Arbeiten abgeschlossen werden.
Entwurf und Implementierung
Zu Beginn des Projektes existierte ein Prototyp mit vier Hauptseiten des Webportals. Dieser wurde mit Angular erzeugt und enthielt folgende Seiten:
publications (Anzeige von Publikationen),
publication (Anzeige und Bearbeitung einer Publikation),
authors (Anzeige aller Autor*innen),
import (Übersicht über die verschiedenen Importe).
Ein detaillierter Entwurf der Dezernentin für Medienbearbeitung zu den gewünschten Importen und des Workflows lag bereits zu Projektbeginn vor. Anhand der Erfahrungen mit der bisherigen Bearbeitung, weiteren Gesprächen und dem Entwurf wurden gemeinsam die gewünschten Funktionen identifiziert, die folgend näher beschrieben werden.
Damit Autor*innen bearbeitet und manuell hinzugefügt werden können, wurden neue Formulare erstellt. Im Rahmen der Formularbearbeitung werden alle Felder bis auf die ID mit Informationen befüllt. Zudem musste es die Möglichkeit geben, Autor*innen zu löschen. Um versehentliches Löschen zu verhindern, erfolgte die Implementierung einer Bestätigungsabfrage.
Das manuelle Hinzufügen von Publikationen ist ebenfalls möglich. Dieser Use-Case kann vorkommen, wenn Veröffentlichungen dem Dezernat Medienbearbeitung per Mail mitgeteilt werden.
Weiterhin wurden Importe anhand der im Entwurf vorhandenen Beispiele programmiert und dafür nach Möglichkeit APIs genutzt. Insbesondere dem Import der Daten von ORCID wurde eine hohe Priorität zugeordnet.
Für angekündigte Veröffentlichungen gibt es die Funktion einer sogenannten Temp-Tabelle. Dort werden Publikationen gespeichert, welche noch nicht endgültig publiziert sind. Sobald dies umgesetzt war, wurde eine Funktion programmiert, mit der diese Daten in die Produktiv-Tabelle verschoben werden konnten.
Die Implementierung eines Authentifizierungsverfahrens schafft die Möglichkeit, ein späteres Rechtemanagement zu etablieren. Präferiert wird das Login über Single-Sign-On (SSO) mit Shibboleth über den Identity Provider (idp) der Universität Potsdam. Zurzeit ist nur eine einfache lokale Authentifizierung realisiert.
Für die schnelle Auswertung der Daten erfolgt der dynamische Abruf vordefinierter Reports. Diese umfassen:
die Top 20 der Verlage auf Basis der Anzahl an Publikationen,
die verwendeten Lizenzen (z. B. Transformationsverträge, DEAL),
die Zahl der Veröffentlichungen pro Fakultät,
der OA-Status der Publikationen und zusätzlich pro Fakultät sowie
die Angabe, bei wie vielen Veröffentlichungen der Corresponding Author von der UP ist.
Zusätzlich bestand der Wunsch nach einer grafischen Darstellung der genannten Reports.
Server
Um das Webportal zu hosten, wurde eine virtuelle Maschine in der Virtualisierungsumgebung der UB installiert. Auf dieser wurden ein Nginx Webserver, Node.js und eine MariaDB SQL-Datenbank eingerichtet.
Datenbank
Zu Beginn des Projektes existierten beim Prototyp die drei Tabellen publications, author und pub-author. Dort können sowohl die Publikation, Autor*innen als auch die Zuordnung zwischen Autor*in und Publikation hinterlegt werden.
Um die Lizenzen abbilden zu können, wurde eine weitere Tabelle hinzugefügt und über die ID mit der Publikationentabelle verknüpft.
Anschließend wurden die anderen Tabellen anhand der Anforderungen angepasst bzw. erweitert. So wurde in der Tabelle publication das Feld temp hinzugefügt, um die noch nicht veröffentlichten Publikationen zu kennzeichnen. Diese werden dann separat in der Weboberfläche angezeigt und können bei Bedarf durch Ändern des temp-Wertes zu den auszuwertenden Datensätzen hinzugefügt werden.
Des Weiteren wurde das Attribut pub_type in der Tabelle publication ergänzt. So kann die Art der Publikation (z. B. journal-article, book-chapter) erfasst werden.
Backend
Für den Zugriff auf die Datenbank von Output.UP wurden mit dem Node.js-Server und dem Express-Framework eigene APIs angelegt. Mit diesen können Daten abgerufen, verändert, eingefügt und gelöscht werden.
Das komplette Datenmodell wird mit dem über npm installierten Paket TypeORM in Typescript erstellt. Zunächst werden die einzelnen Tabellen (entities) erzeugt, indem für jede zu generierende Tabelle eine eigene Datei mit der Definition des Namens und der einzelnen Felder angelegt wird. Mit der Eintragung der Zugriffsdaten erfolgt dann beim Starten des Node.js Backends, falls noch nicht vorhanden, die automatische Erzeugung aller Tabellen mit dazugehörigen Attributen und Eigenschaften in der Datenbank.
Durch diesen Ansatz können auch unterschiedliche relationale Datenbankmanagementsysteme (z. B. MarieDB, MySQL oder PostgreSQL) benutzt werden, solange ein entsprechender Treiber dafür vorhanden ist.
Frontend
Mithilfe des Angular Framework wurde das Webportal weiterentwickelt. Durch npm wurden u. a. Module für die Gestaltung der Oberfläche (Material Design), den Import von csv-Dateien sowie für den Abruf bei APIs eingebunden.
Importe
Die Importe sind zentraler Bestandteil der Anwendung. Die Auswahl der Importe und der jeweiligen Felder erfolgte im Projektteam nach fachlichen und inhaltlichen Kriterien. Für die Importe werden nur die Publikationen der aktuellen Jahresscheibe betrachtet. „Die […] gesammelten Publikationsdaten sind für die Verhandlung zukünftiger Transformationsverträge, die Abschätzung des Mittelbedarfs und die Zweitveröffentlichung von zentraler Bedeutung.“[5] Anhand des Digital Object Identifier (DOI) und des Titels wird automatisch abgeglichen, ob eine Publikation bereits vorhanden ist. Dies dient der Vermeidung von Dubletten. Eine Ausnahme bilden Springer, MDPI und Taylor & Francis. Aufgrund der Erfahrungen im Dezernat Medienbearbeitung wird bei diesen Anbietern eine höhere Datenqualität erwartet. Aus diesem Grund werden schon existierende nicht abschließend geprüfte Daten in Output.UP teilweise überschrieben. Als abgeschlossen gelten Publikationen, welche die Bearbeiter*innen begutachtet, gegebenenfalls modifiziert und abschließend als „gelockt“ markiert haben. Ab diesem Zeitpunkt werden in diesen Datensätzen keine Informationen mehr angereichert oder bearbeitet.
Für die Importe werden je nach Quelle csv- oder Bibtex-Dateien sowie die APIs von ORCID und Crossref genutzt.
Zunächst werden die Dateien von den Bearbeiter*innen auf der entsprechenden Plattform herunter- und mithilfe eines Formular in Output.UP hochgeladen. In diesem Prozess werden die Daten mit dem Paket „papaparse“ zeilenweise eingelesen.
Im Anschluss wird anhand der DOI geprüft, ob die ermittelten Daten bereits in der Datenbank vorhanden sind. Sollte dies der Fall sein, werden bestimmte Felder überschrieben, sofern es sich beim Anbieter um Springer, MDPI und Taylor & Francis handelt. Alle anderen Dubletten werden verworfen. Zudem wird überprüft, ob das Publikationsjahr dem auszuwertenden Jahr entspricht.
Dabei ist für jeden Import die Definition der Felder fest im Code programmiert. Diese werden dann dem Datenmodell zugewiesen.
Problematisch ist es und im Testbetrieb bereits vorgekommen, wenn sich an der Struktur der csv-Datei etwas ändert. In diesem Fall ist ein korrekter Upload nicht mehr möglich. Daher ist eine Anpassung der Konfiguration direkt im Code notwendig. Um bei solchen Änderungen in Zukunft einfacher reagieren zu können, ist geplant, die Felddefinitionen in der Weboberfläche konfigurierbar zu machen.
Import Bibtex-Dateien
Im ersten Schritt werden die Bibtex-Dateien ebenfalls über ein Formular hochgeladen und im Anschluss mit dem Paket bibtex-parse-js ausgewertet.
Bei Importen kommt es jedoch zu Problemen, wenn die Struktur der Eingangsdateien nicht valide ist. Fehlende Zeichen oder eine falsche Formatierung sind meist die Fehlerquelle.
Deshalb wird bei etwaigen Fehlern angezeigt, bei welcher Datei diese aufgetreten sind. Aufgrund der Größe der Dateien und der vielschichtigen Ursachen wurde zunächst vereinbart, dass eventuelle Fehler in den Dateien von den Kolleg*innen manuell korrigiert und im Anschluss erneut hochgeladen werden.
Import über APIs
Beim Import über APIs werden die Daten automatisiert abgerufen. Dadurch ist es nicht notwendig, Publikationen von Quellen zu exportieren und wieder in Output.UP hochzuladen. Somit kann das Einspielen schneller und einfacher umgesetzt werden.
Bei Crossref und ORCID kann der Import über eine API durchgeführt werden. Dafür müssen je nach Anforderung unterschiedliche Parameter übergeben werden[6].
Ein Problem, welches sich beim Abrufen ergeben kann, ist, dass der Zugriff aufgrund einer zu hohen Anzahl an Anfragen geblockt wird. Dies dient zum einen der Sicherheit und zum anderen dem Schutz vor Überlastung. Durch Einsatz des Pakets smart-request-balancer wird dieses Problem verhindert. In diesem können sogenannte Rules konfiguriert werden, die bestimmen, wie viele Anfragen pro Sekunde an eine API gesendet werden.
ORCID
Es wird die offizielle ORCID-API[7] genutzt, um Datensätze abzurufen. Informationen können über verschiedene Pfade abgefragt werden. Zunächst wurde die „works“-Schnittstelle verwendet, um die Publikationsdaten abzurufen. Dies wurde in Absprache mit der Auftraggeberin jedoch in einen Zwei-Schritte-Import umgestellt, da aufgrund von ersten Erfahrungen mit der Schnittstelle bessere Ergebnisse erwartet wurden. Ein Nachteil dieser Vorgehensweise ist die erhöhte Anzahl an Abfragen. In Zukunft gilt es daher, zu evaluieren, ob dieses Verfahren weiterhin notwendig ist.
Für den Import werden zunächst für alle Autor*innen in Output.UP mit einer ORCID die sogenannten Put-Codes zu den dazugehörigen Publikationen über die „works“-Schnittstelle abgerufen. Im zweiten Schritt werden dann zu allen Put-Codes einer Person die Veröffentlichungen abgefragt. Dabei werden nur die Publikationen der aktuellen Jahresscheibe betrachtet. Im Anschluss werden diese angezeigt und können selektiv importiert werden.
Crossref
Der Abruf der Daten bei Crossref erfolgt über die REST API[8]. Hier wird im Gegensatz zu ORCID nur die „works“-Schnittstelle mit Filter für die Affiliation und das Jahr verwendet.
Aufgrund der Angabe von „Potsdam“ als Affiliationsfilter kann es dazu kommen, dass Datensätze importiert werden, welche nicht zur Universität Potsdam gehören. Diese sind dann z. B. aus Potsdam, USA. Da Erfahrungen zeigen, dass die Affiliationsangaben oft fehlerbehaftet sind, wird die größere Treffermenge in Kauf genommen und auf die Eingrenzung mittels „University of Potsdam“ oder „Universität Potsdam“ verzichtet. Im Moment werden diese, wie alle anderen auch, noch von Kolleg*innen geprüft und bei Bedarf direkt in Output.UP gelöscht. Zukünftig kann hier gegebenenfalls auf die GRID[9] oder ROR[10] umgestiegen werden.
Anreicherung der Datensätze
Die Anreicherung von vorhandenen Datensätzen wird anhand der DOI durchgeführt. Diese dient als eindeutiger Identifier, um Informationen abzurufen und einzubinden. Je nach Vorauswahl können sowohl alle als auch nur einzelne Publikationen angereichert werden. Durch Bearbeiter*innen gelockte Publikationen werden in diesem Prozess nicht verändert. Bei diesen ist die inhaltliche Prüfung abgeschlossen und eine Modifikation der Daten kann verhindert werden.
Crossref
Für die Anreicherung wird erneut die Crossref REST API[11] genutzt. Dabei werden Daten der Autor*innen mit Name, Affiliation und ORCID gespeichert. Des Weiteren werden die Informationen Titel, Verlag, E-ISSN, Print-ISSN, Journal, Veröffentlichungsdatum – falls noch nicht vorhanden – in der Datenbank ergänzt. Mithilfe der eingespielten Informationen zur ORCID kann anschließend ein erneuter Import über ORCID durchgeführt werden, um weitere noch nicht vorhandene / erfasste Publikationen zu identifizieren.
Unpaywall
Über Unpaywall werden Informationen zu Open Access, wie z. B. die OA-Lizenz oder der OA-Status, abgerufen. Dafür wird die REST-API https://api.unpaywall.org/v2[12] verwendet. Jede Anfrage muss eine E-Mail-Adresse als Parameter enthalten.[13] Damit kann bei Fehlern in der Clientanwendung die Person, welche die Anfrage stellt, von Unpaywall kontaktiert werden. Der Zugriff ist auf 100.000 Aufrufe pro Tag eingeschränkt. Aufgrund der zu erwartenden Anzahl an Datensätzen in Output.UP (maximal 3.000) ist dies jedoch kein limitierender Faktor.
Authentifizierung
Die Implementierung an das SSO der Universität Potsdam mit dem Paket passport-saml wurde zurückgestellt. Für den Testbetrieb wurde daher zunächst eine simple Authentifizierung über eine htpasswd- und htaccess-Datei konfiguriert. Dadurch haben zwar alle Nutzer*innen die gleichen Rechte, jedoch findet die Bearbeitung im Moment nur intern innerhalb des Dezernates Medienbearbeitung durch ausgewählte Kolleg*innen statt.
Statistiken
Um die geforderten Charts übersichtlich zu programmieren, wurde für jede Statistik eine eigene Angular-Komponente generiert. Diese werden in einer übergeordneten Dashboard-Komponente zusammengefügt. Dadurch ist der jeweilige Code kürzer und leichter zu pflegen. Zudem sind eventuelle Fehler an einzelnen Komponenten isoliert.
Die grafische Darstellung der Statistiken (siehe Abbildung) wird mit der JS-Bibliothek von Highcharts[14] umgesetzt, da für den Hochschul- und Non-Profit-Bereich eine Gratislizenz angeboten wird.[15] Diese ist jedoch an den Ersteller dieser Arbeit als Entwickler gebunden und müsste bei einer Nachnutzung des Projektes von anderen Organisationen neu beantragt werden.
Highcharts bietet für die Funktionserweiterung diverse Module an. Für dieses Projekt wurde das exporting-Modul installiert. Damit können Charts über eine Schaltfläche in die Formate pdf, png und svg exportiert werden. Im Normalfall wird der Export auf den Servern von Highcharts durchgeführt. Da es sich teilweise um sensible Informationen handelt, wird jedoch die Erweiterung offline_exporting genutzt. Dadurch generiert der Client den Export.

Beispiel Statistik OA-Category (erstellt mit highcharts.com).
Erstes Jahr im Testbetrieb
Mit der ersten Version von Output.UP wurde im Jahr 2020 gleich der Testbetrieb gestartet. Eine parallele Erfassung in den alten Excel-Dateien fand nicht statt.
Die Kolleg*innen gaben bereits in den ersten Wochen Feedback zur Usability (Formulargestaltung, Darstellung der Publikationsübersicht etc.) und inhaltlichen Themen, um das System und die Abläufe weiter zu verbessern. Diese und andere Anpassungen sowie Bugfixes wurden kontinuierlich in das System eingepflegt.
Probleme, die im Testbetrieb identifiziert werden konnten, waren u. a. das Fehlen von DOIs und / oder Titeln bei Importen. Deshalb wurden weitere Prüfroutinen in den Importprozess für die Löschung entstandener Dubletten implementiert. Jedoch lassen sich nicht alle Fehler dieser Art abfangen. Dadurch müssen die Mitarbeiter*innen gelegentlich Dubletten manuell bereinigen.
Die Zuordnung von Autor*innen und Publikationen ist ein weiterer wichtiger Punkt. Im Moment werden für jede Veröffentlichung die entsprechenden Autor*innen in der Datenbank gespeichert. Das führt dazu, dass aufgrund eines fehlenden Identifiers bei Personen diese mehrfach in der authors-Tabelle eingetragen sind. Hierfür wird eine konzeptionelle Lösung erarbeitet.
Neben den vorhandenen Statistiken wurde noch der Bedarf für zwei weitere ermittelt. In diesen werden die Auswertung der Verteilung der Datenquellen sowie der Kosten pro Fakultät dargestellt. In diesem Zusammenhang sind auch die unterschiedlichen Benennungen der Verlage bei den Importen aufgefallen. Es wird deshalb nun eine Konkordanz erstellt, um diese in Zukunft bereits bei der Einspielung zu bereinigen.
Im Rahmen des Jahresübergangs werden die erfassten Daten in ein Archiv gespeichert, da in Output.UP immer nur eine Jahresscheibe betrachtet werden soll. Alle vorhandenen Statistiken können jedoch auch weiterhin mit den Informationen aus vorherigen Jahren abgefragt werden. Die entsprechenden Funktionen dafür werden zurzeit programmiert.
Ausblick
Im System werden in Zukunft noch einige Teilaspekte angepasst. Dazu gehören die schon erwähnte Autor*innenzuordnung, weitere Importe, aber auch die Authentifizierung mittels SSO sowie allgemeine Konfigurationsmöglichkeiten. Außerdem soll der momentan noch vom DDD manuell durchgeführte Jahresübergang in Output.UP so automatisiert werden, sodass die Mitarbeiter*innen die Publikationsdaten der aktuellen Jahresscheibe selbstständig archivieren können. Zudem ist geplant, zu den einzelnen Datensätzen die Kostenarten (z. B. page charge, colour charge) zu erfassen.
Im Rahmen einer Kooperation mit der Universitätsbibliothek der Otto-von-Guericke-Universität Magdeburg wird Output.UP gemeinsam weiterentwickelt. Geplant ist eine Veröffentlichung auf einem Git-Repository.
Um den Entwicklungs- und Deploymentprozess weiter zu optimieren, wird ein CI / CD[16] über GitLab getestet. Dadurch werden u. a. bei jedem Commit in GitLab mit vordefinierten Tests einzelne Funktionen getestet. Eine Überprüfung und automatische Anpassung des Coding Styles ist ebenfalls möglich. Tests in anderen Projekten wurden erfolgreich abgeschlossen und können auf Output.UP übertragen werden.
Article Note
Dieser Artikel ist eine gekürzte und angepasste Version der Projektdokumentation vom November 2020 im Rahmen des Masterstudiengangs Bibliotheksinformatik. Die Dokumentation wird bei Bedarf zur Verfügung gestellt.
About the author

Stefan Hoyer
© 2021 Walter de Gruyter GmbH, Berlin/Boston
Articles in the same Issue
- Frontmatter
- Editorial
- Aus den Verbänden
- Bibliotheken in ländlichen Räumen erhalten weitere 1,35 Millionen Euro aus dem Förderprogramm „Vor Ort für Alle“
- „Bibliotheken – für eine nachhaltige Zukunft“
- Stärkung von Bibliotheken in ländlichen Räumen
- Themen
- Kooperative Bestandserhaltung in Baden-Württemberg
- Erstellung eines Webportals zur Outputanalyse an der Universitätsbibliothek Potsdam
- Immer auf dem Laufenden – der neue Zeitschrifteninformationsdienst ZinDiT der Bundestagsbibliothek
- Mit NAO, Dash & Co. die Welt der Roboter entdecken
- Digital um jeden Preis?
- 65 Fachwirte für (Medien- und) Informationsdienste
- Neue Wildnis in geordneten Märkten
- Notizen und Kurzbeiträge
- Deutsche Nationalbibliothek beteiligt sich am Aufbau der Forschungsdateninfrastruktur „Text+“
- Termine
- Termine
Articles in the same Issue
- Frontmatter
- Editorial
- Aus den Verbänden
- Bibliotheken in ländlichen Räumen erhalten weitere 1,35 Millionen Euro aus dem Förderprogramm „Vor Ort für Alle“
- „Bibliotheken – für eine nachhaltige Zukunft“
- Stärkung von Bibliotheken in ländlichen Räumen
- Themen
- Kooperative Bestandserhaltung in Baden-Württemberg
- Erstellung eines Webportals zur Outputanalyse an der Universitätsbibliothek Potsdam
- Immer auf dem Laufenden – der neue Zeitschrifteninformationsdienst ZinDiT der Bundestagsbibliothek
- Mit NAO, Dash & Co. die Welt der Roboter entdecken
- Digital um jeden Preis?
- 65 Fachwirte für (Medien- und) Informationsdienste
- Neue Wildnis in geordneten Märkten
- Notizen und Kurzbeiträge
- Deutsche Nationalbibliothek beteiligt sich am Aufbau der Forschungsdateninfrastruktur „Text+“
- Termine
- Termine