Zusammenfassung
Der Beitrag beschreibt die Schwierigkeiten bei der Umsetzung einer automatisierten Übernahme aller über Publikationsgelder finanzierten Open-Access-Zeitschriftenartikel in institutionelle Repositorien. Sind Verlags-Dashboards, die den wissenschaftlichen Einrichtungen im Rahmen von Vertragsvereinbarungen für die Bearbeitung der eingehenden Verifizierungsanfragen zur Verfügung gestellt werden, in diesem Zusammenhang hilfreich?
Abstract
The article discusses the complexities of implementing the automatic import of Open Access journal articles with a publication grant into institutional repositories, and asks whether publisher dashboards provided to academic institutions as part of contract agreements on the management of incoming verification requests are a useful tool to deal with the issue.
Um Wissenschaftler*innen eine große Bandbreite an Möglichkeiten des kostenfreien Open-Access-Publizierens in wissenschaftlichen Zeitschriften zu bieten, schließen Bibliotheken und wissenschaftliche Einrichtungen Verlagsvereinbarungen[1], institutionelle Mitgliedschaften[2] oder konsortiale Verträge mit wissenschaftlichen Verlagen wie de Gruyter, Cambridge University Press, Frontiers, Copernicus und anderen.
Vertraglich festgelegt werden neben den allgemeinen Geschäftsbedingungen die Zahlungsmodalitäten (prepayment, direct invoicing, postpayment), mögliche Rabattierungen und Informationen über die zur Verfügung stehenden Zeitschriftenkontingente, in denen die in der jeweiligen Einrichtung affiliierten Autor*innen kostenfrei publizieren können.
Worüber grundsätzlich bei Vertragsabschluss nicht gesprochen wird, sind mögliche Schnittstellen für eine automatisierte Einspielung der finanzierten und publizierten Artikel in die Publikationsserver der teilnehmenden Einrichtungen. Technische Erfordernisse wie Schnittstellen für eine automatisierte Einspielung der finanzierten und publizierten Artikel in die Publikationsserver der teilnehmenden Einrichtungen sind in der Regel nicht Vertragsbestandteil, sie werden erst nach Vertragsbeginn eventuell mit dem technischen Support der Verlage erörtert.
Erst nachdem die geförderten Artikel als Verlagsversion erschienen sind, wird seitens der Einrichtung der Ruf nach einer möglichst mit wenig Arbeit verbundenen Übernahme der Artikel in das hauseigene institutionelle Repositorium laut.
Gemäß dem Zweitveröffentlichungsrecht § 38 UrhG Abs. 4 sind Autor*innen[3] aus teilnehmenden Einrichtungen ohne Mehrkosten berechtigt, ihre in den lizenzierten Zeitschriften publizierten Artikel in der durch den Verlag publizierten Form sofort nach Erscheinen in ein institutionelles Repositorium ihrer Wahl einzupflegen und kostenlos zugänglich zu machen.
Stellen Autor*innen einen Antrag auf finanzielle Förderung eines Open-Access-Artikels, so kann die Einrichtung die Wissenschaftler*innen auf die Möglichkeit der selbständigen Anmeldung der Metadaten gezielt aufmerksam machen. Die Universitätsbibliothek der Freien Universität Berlin hat diesen Hinweis bspw. in ihren Antragsformularen[4] als Pflichtfeld mit folgendem Wortlaut hinterlegt: „Der Artikel wird von mir unverzüglich über Refubium zur Verfügung gestellt.“ Ob die Autor*innen dieser Bitte letztendlich nachkommen, wird im Laufe des Textes erörtert.
Mit der Frage einer vollautomatisierten Einspielung in das institutionelle Repositorium, dem Refubium[5], hat sich die Universitätsbibliothek der Freien Universität Berlin bereits in 2012 seit Beginn der Förderung von Open-Access-Publikationen beschäftigt. Um möglichst wenig manuelle Vor- und Nacharbeit zu investieren, sollten die Metadaten und die PDF-Dateien der Verlagsversionen in das Repositorium eingespielt werden. Dies geschah und geschieht über einen simplen Datenimport. Anfangs gestaltete sich diese Übertragung etwas holprig, da der Bibliothek ein Zugang zu einem FTP-Server zur Verfügung gestellt wurde, bei dem kontinuierlich manuell angefragt werden musste. Zudem fehlten seitens der Verlage Ansprechpartner*innen, so dass kein kontinuierlicher Workflow aufgebaut werden konnte.
In Zusammenarbeit mit Verlagen wie Copernicus[6] und MDPI[7] wurde eine erweiterte Möglichkeit des simplen Datenimports gefunden. Copernicus legt via SFTP[8] die Dokumente im PDF-Format und die dazugehörigen Metadaten im XML[9]-Format ab. Über ein täglich auszuführendes Skript, einen sogenannten Cronjob, wird das XML-Datenformat mithilfe von XSLT[10] vom MODS[11]-Format in das DSpace-interne Metadatenformat (DIM[12]) umgewandelt und danach in den DSpace Workflow des Refubiums importiert.
MDPI liefert die Dokumente ebenfalls im PDF-Format und die Metadaten als XML via SWORD Schnittstelle[13]. Zuerst wird das XML vom METS/EPDCX[14]-Format in das DSpace-interne DIM-Format mit XSLT gewandelt und dann ebenso ins Refubium importiert. Bevor die Daten im Workflow sichtbar sind, nimmt die IT-Abteilung des Refubiums ggf. noch einmal eine Kuratierung der Metadaten vor.
Obgleich wir in beiden Fällen nicht von Schnittstellen sprechen, gestaltet sich die Arbeit der Editor*innen durch diese Art des simplen Datenimports wesentlich effizienter als die reine manuelle Eingabe der Metadaten und PDF-Dateien über die Eingabeformulare des Repositoriums.
Das Editor*innenteam der Bibliothek ergänzt in beiden Fällen nur einige wenige finanzierungsrelevante lokale Metadaten und gibt die geförderten Verlagsartikel anschließend frei. Eine interne Workflowdokumentation, die die Abläufe vom Zeitpunkt der Einreichung des Artikels über die Bezahlung bis hin zur Verfügbarmachung im Refubium der Freien Universität Berlin beschreibt, wird in regelmäßigen Abständen aktualisiert. Die zusätzliche Erstellung und die Pflege von Excel-Listen entfällt – demnach findet hier ein sehr effizienter Workaround statt.
Gleichermaßen ist es möglich, einen Datenimport unter Zuhilfenahme von csv-Dateien der Metadaten zu vollziehen. Anhand einer Ausfüllhilfe für Editor*innen als Abgleich der Metadaten werden die Daten aufbereitet und anschließend in das Repositorium importiert.
Welche Alternativen gibt es neben der Möglichkeit des Datenimports?
Die Wissenschaftler*innen informieren ihre Einrichtung nach Abschluss der Förderung über den Erscheinungstermin ihres Artikels. Damit sie dieser Aufgabe nachkommen, kann diese Möglichkeit zum Zeitpunkt der Antragstellung im Webformular[15] als anklickbares Pflichtfeld verankert werden, wie auch am Beispiel der FU Berlin bereits erwähnt. Ein Nachteil dabei ist, dass die Autor*innen zum Zeitpunkt des Erscheinens ihrer geförderten Artikel teils gar nicht mehr an der Einrichtung tätig sind oder sich aus zeitlichen Gründen nicht mit dieser Aufgabe befassen möchten. In der Tat meldet nur ein sehr geringer Teil der Autor*innen an der FU Berlin ihre durch die UB geförderten Artikel selbständig im institutionellen Repositorium an.
Die Bibliothek setzt sich nach erfolgreicher Abwicklung des Bezahlvorgangs eine Erinnerung entweder per E-Mail an eine Funktionsadresse oder via Ticketsystem. So wird sichergestellt, dass in regelmäßigen Zeiträumen von dem Editor*innenteam überprüft wird, ob der betreffende Artikel bereits erschienen ist. Anmeldung der Metadaten und Hochladen der Verlagsversion übernimmt das Editor*innenteam der Bibliothek, das durch passgenau aufeinander abgestimmte Workflows dabei unterstützt wird.
Die Bibliothek ist Vertragspartner*in von Deep Green[16] und nutzt die Sword-Schnittstelle der teilnehmenden Verlage. Deep Green bietet als Datenlieferdienst für Projektpartner*innen Wege zur automatisierten Übernahme in das hauseigene Repositorium. Die Datenlieferungen im Deep Green-Portal können von der jeweiligen am Projekt teilnehmenden Einrichtung selbst definiert werden. Dies geschieht über einen Verlagsfilter im Deep Green-Portal. In welcher Form die Publikationen in das Repositorium gelangen, bleibt den Einrichtungen überlassen. Zum einen besteht die Möglichkeit der sofortigen Freigabe im Produktivsystem, zum anderen ist es vorteilhafter, die einzelnen Metadaten in den Workflow zu legen, um sie vor ihrer Freigabe im Produktivsystem des Servers einer finalen formalen Prüfung zu unterziehen. Bei der geschilderten Datenübertragung handelt es sich um konfigurierte Schnittstellen. Allerdings sind diverse manuelle Korrekturen der Metadaten, die sich z. B. auf die Ergänzung finanzierungsrelevanter Felder beziehen, sowie eine zusätzliche Ausfilterung bestimmter Dokumentarten vor der Freischaltung nötig.
Die Bibliothek nutzt die Bibliothekssoftware Alma für alle rechnungsrelevanten und etatbezogenen Vorgänge bei Open-Access-Artikeln. Auch bei dieser Art der Abwicklung wird nicht alles abgedeckt, weiterhin ist das Führen von Excel-Listen notwendig.
Da derzeit keine Gesamtlösung existiert, stellte sich die Frage, ob eventuell Dashboards der Verlage für eine automatisierte Datenübertragung der fertigen Verlagsversionen in Repositorien hilfreich sein könnten.
Dashboards bieten eine gute Übersicht hinsichtlich der Verifizierung von Artikeln. Sie unterscheiden sich in ihren Funktionen allerdings zum Teil stark voneinander. Allen gemeinsam ist, dass Änderungen an den bestehenden Detailinformationen, nachträgliche Änderungen bspw. fehlerhafter Institutionsangaben in der Regel nicht umsetzbar sind. Sonstige Änderungen oder Ergänzungen in den bestehenden Tools gestalten sich schwierig und sind je nach Vertragswerk ein längerer Abstimmungsprozess zwischen der jeweiligen Einrichtung, den Konsortialpartner*innen und dem Verlag.
Exemplarisch werden die Verlagsdashboards von Copernicus, Wiley und das CCC-Institution-Portal von de Gruyter und Cambridge kurz vorgestellt.
Während Plos One[17] mit seinem Verlagsdashboard nur eine einfache Verifizierung erlaubt, ist die Arbeit mit dem MDPI-Tool[18] wesentlich komfortabler. Das MDPI-Tool bietet eine Artikelübersicht (Overview Articles), die eine Filterung nach den verschiedensten Kriterien zulässt. In der zu verifizierenden Artikelübersicht können seitens der Editor*innen Notizen gesetzt werden, die Autor*innen können kontaktiert werden und es besteht die Möglichkeit, alle Rechnungsdetails tagesaktuell einzusehen. Jeder Einrichtung steht eine Art Reglersystem zur Verfügung. Steht der Regler auf grau, erhält der corresponding author die Rechnung zugeschickt. Sobald Wissenschaftler*innen während des Submission-Prozesses ihre Einrichtung anwählen und damit signalisieren, für die zentrale Rechnungslegung zugelassen zu sein, wird der Radio-Button bei der Akzeptanz des Artikels auf grün gesetzt. Sollte ein Artikel fälschlicherweise auf „grün“ gesetzt worden sein, reicht zum Rückgängigmachen eine kurze Mail an MDPI.
Das CC Rightslink, das Management-Tool[19], das von CUP[20] und de Gruyter genutzt wird, erlaubt eine Verifizierung der eingereichten Artikel inklusive einer Kostenansicht sowie eine Suchfunktion, die die Auswahl bestimmter Reports erlaubt. Diese Reports werden innerhalb weniger Minuten erstellt. Das Tool bietet keine Möglichkeit zur Übernahme von publizierten Artikeln, auch eine Information über das Erscheinen der Artikel wird nicht präsentiert.
Das Copernicus-Dashboard[21] bietet detaillierte Informationen zum Manuskript Overview und weiteren Informationen. Verifizierungsangaben sind an der FU Berlin an ein Ticketsystem gekoppelt.
Das seit 2021 existierende Dashboard von Frontiers[22] zeigt alle zu verifizierenden Artikel. Weitere Möglichkeiten der Bearbeitung bestehen hier nicht.
Das Verlagsdashboard von Wiley[23] stellt den Einrichtungen für die beiden separaten Gold- und Hybrid-Accounts Autor*innenangaben und Publikationsdaten von Artikeln zur Verfügung. Anhand derer wird vom Open-Access-Team der Bibliothek überprüft, ob ein Artikel zur Open-Access-Publikation berechtigt und damit förderfähig ist. Die eingehenden Verifizierungsanfragen erscheinen im Dashboard im jeweiligen Account und werden bspw. an der Universitätsbibliothek der FU Berlin über ein Ticketsystem kommuniziert. Die Anfrage erscheint im Dashboard als noch nicht beantwortet, request als „pending“ markiert.
Die Aufgabe der Einrichtung ist es, alle Eingänge zeitnah zu prüfen, um sie entweder zu genehmigen (approve) oder abzulehnen (deny).
Dashboards sind also lediglich für einen kleinen Teil im Bearbeitungsvorgang der finanzierenden Einrichtung hilfreich. Ein konsequentes Bearbeiten von der Verifizierung eines Artikels bis hin zur Bezahlung und der Übermittlung der erschienenen Verlagsversion via Schnittstelle aus dem Dashboard heraus ist nicht möglich, zumal Dashboards nicht mit anderen Bibliothekssoftware- oder Discoverysystemen wie Alma oder Primo korrespondieren.
Muss also demnach weiterhin mit Einzellösungen wie simplen Datenimporten und ergänzenden Excel-Listen gearbeitet werden?
Kommerzielle Anbieter wie Lehmanns Media[24] und Chronos Hub oder Knowledge Unlatched[25] möchten diese Lücke schließen und bieten Komplett-Services für das Management von Open-Access-Publikationen an. Diese Gesamtlösungen berücksichtigen u. a. auch die Bedürfnisse der Autor*innen, die sich in den seltensten Fällen mit den Bedingungen, Richtlinien des Publizierens beschäftigen wollen. Bibliotheken wird ein Servicepaket vom Verifizieren, Bezahlen bis zur Datenanalyse und der Erstellung von Nutzungsstatistiken angeboten. Der Preis berechnet sich nach dem Volumen.
Wenn damit auch Lösungen zur automatisierten Übernahme der publizierten Artikel in die Repositorien der jeweiligen Kunden Teil des Gesamtkonzepts wären, dann könnte dies ein Lösungsansatz für die anfangs geschilderte Thematik für Repositorien sein. Eine Art Ampelsystem oder Button zur Einspielung der Metadaten der Verlagsversion aus den Verlagstools heraus wäre eine denkbare Lösung, um den Workflow abzurunden.
In jedem Fall hilfreich für die Entwicklung potentieller Prozesse zur vollautomatisierten Übernahme ist eine gute interne Kommunikation zwischen dem Editor*innenteam des jeweiligen Repositoriums und dem IT-Support der jeweiligen Einrichtung als Voraussetzung für die Betreuung der Datenimporte bzw. Schnittstellen und einer damit verbundenen kontinuierlichen Anpassung aller Updates. Detaillierte Arbeitsbeschreibungen sollten die Grundlage für die Arbeit der Editor*innen bilden. Als hilfreich erweisen sich parallele Testinstanzen, um Workflows fundiert vor der Produktionsaufnahme auszuprobieren.
About the author

Leitung Team Hochschulschriftenstelle u. Dokumentenserver
© 2022 bei den Autoren, publiziert von De Gruyter.
Dieses Werk ist lizensiert unter einer Creative Commons Namensnennung 4.0 International Lizenz.
Articles in the same Issue
- Frontmatter
- Editorial
- Aus den Verbänden
- TOMMI – Deutscher Kindersoftwarepreis 2022: Die TOMMInierungen stehen fest!
- „Bibliotheken sind per se nachhaltige Institutionen“
- „International Read an eBook Day“: Buch ist Buch
- Bibliotheken gehen entschieden gegen Falschinformationen vor
- Schulbibliotheken brauchen Unterstützung
- NUMO. Stipendienprogramm Bibliotheken und Archive für Geflüchtete aus der Ukraine
- Das Projekt „Netzwerk Bibliothek Medienbildung“ stärkt Bibliotheken als Orte der Medienbildung in ländlichen Räumen
- Themen
- „Feuergriffel“ – Mannheimer Stadtschreiber für Kinder- und Jugendliteratur
- Wissensquelle und Erlebnisort Deutsche Nationalbibliothek
- #networkframework – Framework Information Literacy Lessons (FILL) aus der Praxis für die Praxis
- Automatisierter Import von geförderten Open-Access-Artikeln in Repositorien – eine Herausforderung für Repositoriums-Betreiber*innen?
- Auf dem Weg in die artikelbasierte Zukunft
- Notizen und Kurzbeiträge
- ZBW – Leibniz-Informationszentrum Wirtschaft startet Duales Studium „Angewandte Informatik“
- Termine
- Termine
Articles in the same Issue
- Frontmatter
- Editorial
- Aus den Verbänden
- TOMMI – Deutscher Kindersoftwarepreis 2022: Die TOMMInierungen stehen fest!
- „Bibliotheken sind per se nachhaltige Institutionen“
- „International Read an eBook Day“: Buch ist Buch
- Bibliotheken gehen entschieden gegen Falschinformationen vor
- Schulbibliotheken brauchen Unterstützung
- NUMO. Stipendienprogramm Bibliotheken und Archive für Geflüchtete aus der Ukraine
- Das Projekt „Netzwerk Bibliothek Medienbildung“ stärkt Bibliotheken als Orte der Medienbildung in ländlichen Räumen
- Themen
- „Feuergriffel“ – Mannheimer Stadtschreiber für Kinder- und Jugendliteratur
- Wissensquelle und Erlebnisort Deutsche Nationalbibliothek
- #networkframework – Framework Information Literacy Lessons (FILL) aus der Praxis für die Praxis
- Automatisierter Import von geförderten Open-Access-Artikeln in Repositorien – eine Herausforderung für Repositoriums-Betreiber*innen?
- Auf dem Weg in die artikelbasierte Zukunft
- Notizen und Kurzbeiträge
- ZBW – Leibniz-Informationszentrum Wirtschaft startet Duales Studium „Angewandte Informatik“
- Termine
- Termine