Home Ringen um Relevanz auf der APE 2018: worauf wird es in Zukunft für akademische Verlage ankommen?
Article Publicly Available

Ringen um Relevanz auf der APE 2018: worauf wird es in Zukunft für akademische Verlage ankommen?

  • Elgin Helen Jakisch

    EMAIL logo
Published/Copyright: May 3, 2018

Wann immer sich eine Konferenz mit den Themen Open Access, Forschungspolitik, Metadatenstandards oder zukünftigen algorithmischen Lösungen zur Inhaltserschließung von Informationen beschäftigt, gibt es Anlass genug, sich für das Programm näher zu interessieren. Die Verlagsbranche diskutierte vom 16. bis 17. Januar 2018 in Berlin auf der APE-Konferenz (Academic Publishers in Europe) das Thema „Publishing 2020 – Ramping up Relevance“ und untersuchte, welche Aspekte in Zukunft bei der Wissenschaftskommunikation relevant sein könnten. Die Referenten und Interessenten der 13. APE kamen vor allem von namhaften Verlagen, Verbänden und Dienstleistern der Branche. Ergänzt wurde das Programm auch diesmal durch Beiträge von Vertretern aus der Wissenschaft, von Bibliotheken, Technologieunternehmen sowie Providern und Urheberrechtsexperten. Um einen umfassenden Blick auf den Wandel der eigenen Branche zu werfen, wollten die Organisatoren alle Aspekte einbeziehen, zu denen es thematische Überschneidungen gibt. Das war und ist seit Beginn der APE Teil des Konzeptes.

Aktuelle Entwicklungen bei Open Access, Open Science, die globale Vernetzung von Wissenschaftlern, aber auch „Schattenbibliotheken“ wie Sci-Hub lassen bisherige Rollen und Geschäftsmodelle der traditionellen Wissenschaftskommunikation wanken. Da man es mit einem symbiotischen Markt zu tun hat, sind die Treiber des Wandels oftmals auch die Nutznießer. Alle unterliegen Verführungen und Veränderungen des rasanten, technologischen Umbruchs. Was hat angesichts der Potenziale des Internet für die Wissensverbreitung zukünftig noch Relevanz? Wie lässt sich die eigene Relevanz gegenüber disruptiven Entwicklungen behaupten? Gleich sechs Keynote-Speaker ließen erahnen, dass das Programmkomitee seinen Zuhörern einiges abverlangte: eine kritische Analyse des derzeitigen „Mindsets“ bezüglich bestehender Interessen und damit verbundene Apelle, alte Denkmuster aufzubrechen.

Abbildung 1 
Der Leibniz-Saal der Akademie der Wissenschaften war mit 250 Zuhörern bei der APE-Konferenz voll besetzt (Bild: Edwin de Kemp).
Abbildung 1

Der Leibniz-Saal der Akademie der Wissenschaften war mit 250 Zuhörern bei der APE-Konferenz voll besetzt (Bild: Edwin de Kemp).

Open Access um jeden Preis?

Neueste forschungspolitische Entscheidungen könnten bei Open Access die bestehenden Verhältnisse im STM-Bereich bald umkehren. Immer mehr Länder in Europa entscheiden sich dafür, dass die Ergebnisse öffentlich geförderter Forschungen auch der Öffentlichkeit kostenfrei zugänglich gemacht werden. Open Access ist also keine Nebenerscheinung des wissenschaftlichen Publizierens mehr, sondern ein ernstzunehmendes Faktum, mit dem Verlage zukünftig agieren und rechnen müssen. Wie zu erfahren war, entscheiden sich die meisten Institutionen derzeit für einen hybriden Veröffentlichungsweg, der es ihnen ermöglicht, bei einem etablierten und renommierten Zeitschriftenverlag zu veröffentlichen. Die aktuellen Ergebnisse bei den Verhandlungen über „Big-DEALs“ zwischen Wissenschaftsorganisationen und Verlagen bestätigen diesen Trend. Und dies trotz vielfacher Absichtserklärungen, den „goldenen Weg“ bei Open Access zu präferieren.

Schon beim Pre-Conference-Day, der am 15. Januar von der Society for Scholarly Publishing organisiert wurde, war deutlich geworden, dass eine größere Diversität auf dem Verlagsmarkt entstanden ist. Open Access und traditionelle Veröffentlichungsmodelle halten sich derzeit die Waage. Dennoch beobachten die Verlagsvertreter immer noch mit Sorge, dass innerhalb der Open-Access-Debatte ihre Arbeit insgesamt nur auf ein rein kommerzielles Interesse reduziert wird. Das sei, so Eric Merkel-Sobotta von de Gruyter, zu kurz gegriffen. Verlage garantierten eine Neutralität, Objektivität und Professionalität bei der Entscheidung über die Veröffentlichung einer Publikation. Dagegen würden politische Interessen hinter öffentlichen Forschungsfinanzierungen leider bisher zu wenig hinterfragt, kritisierte Merkel-Sobotta. Open Access hätte zwar einige der Bedingungen, unter denen veröffentlicht wird, umgedreht, dennoch bestünde weiterhin eine aktive Kooperation zwischen Autoren und Verlagen.

Ein anderes Beispiel für Finanzierungsideen von Open Access gibt es bei den Geisteswissenschaften, die traditionell stärker an Buchveröffentlichungen interessiert sind. Man sucht nach neuen Wegen, Open Book-Projekte zu finanzieren und findet Mitstreiter durch Crowdfunding, wie beispielsweise bei Knowledge Unlatched. Dass dies geht, beweist auch das auf der Konferenz vorgestellt Non-Profit-Projekt „Open Library of Humanities“ der Universität London. Die Gebühren für Veröffentlichungen werden nicht auf die Autoren abgewälzt, sondern durch Spenden von Bibliotheken und anderen Organisationen vorher eingesammelt.

Die Open-Access-Bewegung hat nicht nur zu einer Verschiebung von Interessen bei der Finanzierung geführt. Auch das Management einer Bibliothek wird davon beeinflusst. Bibliotheken haben von jeher Zugang zu Publikationen ermöglicht. Abgesehen davon, dass sie ursprünglich die Open Access-Bewegung durch die konsequente Ablehnung viel zu hoher Lizenzkosten ausgelöst hatten, müssen sie jetzt mit Auswirkungen auf ihre angestammten Services rechnen, fasste der Direktor der ETH-Zürich-Bibliothek, Dr. Raffael Ball, zusammen. Selbst wenn die positiven Effekte von Open Access unbestritten seien, so dürfe man Veränderungen bei traditionellen und etablierten Services nicht ausblenden. Ball nannte beispielhaft einen Rückgang von Einnahmen bei Dokumentenlieferdiensten oder Reduktionen der Erwerbungsetats. Er gab zu bedenken, dass Bibliotheken eine ihrer traditionell wichtigsten Aufgaben, nämlich die qualitative Auswahl von Literatur, zu Lasten einer immer größer werdenden Menge an frei verfügbaren Publikationen aufgeben müssten. Darüber hinaus werde es zu einem Verlust der gewachsenen Zusammenarbeit mit Verlagen kommen. Ball sieht derzeit nicht, dass man den Bedürfnissen einer komplexer werdenden Verwaltung von E-Ressourcen mit ausreichend Mitteln Rechnung trägt.

Darüber hinaus sind bestehende Methoden zur Vernetzung und Inhaltserschließung der Publikationen weiter zu verbessern und gute Metadatenstandards unumgänglich. Vor allem der Vortrag von Dr. Eva Méndez (Universidad Carlos III de Madrid) machte wieder einmal deutlich, dass sonst kein sinnvoller Nutzen aus den Daten gezogen werden kann. Bibliotheken und Informationseinrichtungen hätten von jeher ihre Sammlungsobjekte mit Annotationen, Ontologien oder Thesauri erschlossen. „Derzeit gibt es zu viele Standards, warum sollte man sich weiter Doppelarbeit machen?“ fragte Méndez. Sie stellte die Initiative Metadata 2020 vor, bei der jetzt schon viele Serviceprovider, Verlage, Bibliotheken und auch Repositorien mitarbeiten.

Die Wissenschaften öffnen und digitalisieren sich

Der nächste Paradigmenwechsel steht bevor. Das Prinzip von „Open Science“ soll die interdisziplinäre Wissenskommunikation auch durch eine Beteiligung von „Bürgerwissenschaftlern“ ermöglichen. Gemeint ist Partizipation an der Weiterentwicklung der Forschung und Lehre auf allen Ebenen. Der Direktor des Naturkundemuseums Berlin, Prof. Dr. Johannes Vogel, sprach die Rückläufigkeit der Innovationskraft der westlichen Welt seit der industriellen Revolution an und forderte die Wissenschaft auf, sich selbst einer kritischen Prüfung zu unterziehen. „Innovation gelingt nur mit Partizipation“, war der Tenor seines Vortrags. Der Naturwissenschaftler plädierte für Investitionen in Bildung und mehr Citizen Science. Nur so blieben Demokratien tragfähig. Die reine Exzellenzorientierung würde die Welt nicht voranbringen.

Prof. Dr.-Ing. Dr. Sabine Kunst, Präsidentin der Humboldt-Universität Berlin, sprach im Hinblick auf Open Science von einer digitalen Transformation der Wissenschaften, die „alles, was es an Daten gibt im Hochschulbereich, zugänglich machen will“. Ein Wandel, der zukünftige Finanzierungsmodelle, Infrastrukturen, Metadatenstandards und von Bibliotheken betreute Repositorien einschließt und nach den FAIR-Principles (Findable, Accessible, Interoperable, and Re-usable) agiert. Die EU-Kommission hat bereits das Projekt einer Open Science Cloud mit europäischem Maßstab ausgerufen, die bis 2020 an den Start gehen soll. Die Leibniz-Gemeinschaft hat im September 2017 bereits ihre Unterstützung zugesagt. Jean-Claude Burgelman (EU-Kommission Brüssel) begründet die Entscheidung der EU-Kommission damit, dass Europa hinsichtlich seiner Forschungsförderungen mehr Transparenz, Innovation und Zirkulation des Wissens befördern will. Das 21. Jahrhundert sei ein interdisziplinäres, so Burgelman. Er wies in seinem Vortrag auf die jährlich veröffentlichten „Tech-Trends“ der Association of STM-Publishers hin. Neben Big Data läge der Schwerpunkt auf Vertrauenswürdigkeit und Integrität von Veröffentlichungen. Dieser Relevanz sähe sich die EU verpflichtet. Mit den Daten in der Cloud soll darüber hinaus auch die „Führerschaft der EU bei Projekten mit künstlicher Intelligenz“ angestrebt werden.

Die Rolle des Nutzers und Wissenschaftlers

Nachwuchswissenschaftler von heute verlangen Zugriff auf elektronische Publikationen rund um die Uhr und ortsunabhängig. Sie tragen mit ihrem Verhalten erheblich zum derzeitigen Paradigmenwechsel bei. Sie kommunizieren aktiv über soziale Forschungsnetzwerke mit Fachkollegen und teilen interessante oder eigene Artikel. Bereits jetzt verbringen Wissenschaftler einen guten Teil ihrer Arbeitszeit in sozialen Fachnetzwerken wie beispielsweise Researchgate. Vor allem das Diskussionspanel zum Thema Piraterie verdeutlichte, dass viele Wissenschaftler die Schattenbibliothek Sci-Hub nutzen − auch wenn alle wissen, dass Urheberrechte verletzt werden. Offenbar gibt es immer noch zu viele Hürden beim Zugriff auf Content. Vielleicht forcieren Phänomene wie Sci-Hub entscheidende Veränderungen, ähnlich wie bei der Musikindustrie. Auch Bibliotheken spüren die Auswirkungen. Wobei ihre Rolle, wie Wouter Haak von Elsevier sagte, vor allem in Zukunft darin bestehen wird, den Wissenschaftler durch den Dschungel von Plattformangeboten und Rechtsfragen zu navigieren. Der Infoprofi bleibt als Lotse in der Informationsflut an Bord und hat womöglich mehr zu tun als je zuvor.

Künstliche Intelligenz bewegt jetzt alle

Dr. Annette Thomas, CEO von Clarivate Analytics, hielt eine bemerkenswerte APE-Lecture zum Thema Datenanalysen im STM-Bereich. Thomas, selbst Naturwissenschaftlerin und Absolventin von Harvard und Yale, scheute sich nicht, dabei auch die Rolle der Wissenschaften zu kritisieren. Es würde zu viel publiziert und davon zu wenig genutzt. Viele Informationen erreichten nicht die Rezipienten. Die Wissenschaftswelt stecke noch in ihren herkömmlichen Strukturen fest. Thomas sieht in der künstlichen Intelligenz (KI) eine Basis für eine umfassende, digitale Rezeption von Forschungsergebnissen und eine interdisziplinäre 360°-Sicht auf die Inhalte.

Ein konkretes Beispiel bot der Beitrag von Dr. Thomas Lemberger von EMBO. Er stellte die Plattform Sourcedata vor, ein lernfähiges System zur Analyse von Artikelinhalten und eine „technische Brücke zwischen Open Access und Open Science“, so Lemberger. Der Fokus liegt auf der „Dissemination von Information.“ Sourcedata zoomt mit Hilfe von Textmining in strukturiert vorliegenden Content und kann kausale Zusammenhänge zwischen Informationen aus verschiedenen Quellen finden. Dabei sollen verschiedene Interpretationsmöglichkeiten der Inhalte je nach Kontext voneinander unterscheidbar gemacht werden.

Dass der vorhandene Verlagscontent als strukturierter „Korpus“ bestens regelbasiert mit KI-Methoden analysiert werden kann, davon berichtete auch Richard Wynne von Aries Systems. Ein sogenannter „walled garden“, also ein Technologieansatz, der nur in einer begrenzten Umgebung funktioniert, wäre kein Ansatz, so Wynne. Verlage und Dienstleister sollten stattdessen kooperieren. Wynne zitierte einen Artikel aus dem Economist von 2013, „How science goes wrong“, in dem beklagt wird, dass die Wissenschaft sich zu wenig Zeit nimmt, Ergebnisse zu verifizieren und in ihrer Filterblase „weiterforscht“. Hier könnte KI bereits beim Beginn eines Forschungsprojekts sinnvolle Unterstützung leisten, weil eine immer größer werdende Menge an Publikationen ausgewertet werden müsse.

Spannend war ein kleiner „Ausflug“ in die Sphäre von Blockchain. Das Programmkomitee hatte sich bei der Planung dieser Session gefragt, ob man es mit einem Hype oder einer für die Wissenskommunikation ernst zu nehmende Entwicklung zu tun hätte. Da diese derzeit noch sehr energieintensive Technologie dezentral funktioniert und jedem Objekt Metadaten automatisch zuschreibt, könnte man plattformunabhängig Daten managen. Dr. Soenke Bartling, Gründer von Blockchain for Science (Berlin), stellte einen völlig neuen Ansatz bei der Erfassung von Forschungsdaten vor. Lambert Heller von der TIB Hannover sieht vor allem Potenziale, die derzeit große Menge an verstreuten Sammlungen und digitalen Archiven über Blockchain dezentral zusammenzuführen.

Schlaglicht auf den momentanen Zustand der Wissenskommunikation

Die Entwicklungen in der Wissenschaftskommunikation sind komplexer geworden und viele Faktoren beeinflussen sich gegenseitig. Alle am Prozess Beteiligten ringen derzeit um Relevanz ihrer bisherigen Services und Strukturen, aber auch um Relevanz neuer Modelle in Zeiten digitaler Veränderungen. Die Branche steckt mitten in einer Debatte mit offenem Ausgang. Der Wandel manch alter Rollenbilder ist nicht mehr zu stoppen. Auch werden in Zukunft viel mehr Daten vorhanden sein, die bessere Analysen erfordern. Die neue „Openness“ der Wissenschaften setzt dabei einen hohen Maßstab: wenn alles verfügbar ist, muss auch über alles verfügt werden. Die Stärke der APE-Tagung ist der systemische Ansatz, die ineinander verwobenen Interessen von Verlegern, Wissenschaftlern und Bibliotheken zu Wort kommen zu lassen und miteinander ins Gespräch zu bringen.

Links

Tagungsprogramm und demnächst die Videomitschnitte auf http://APE-conference.eu

Twitter: #APE2018

Deskriptoren: Tagung, APE 2018, Veröffentlichungswesen, Elektronisches Publizieren, Verlag, Wissenschaftliches Arbeiten,Open Access, Open Sience

Über den Autor / die Autorin

Elgin Helen Jakisch

Online erschienen: 2018-05-03
Erschienen im Druck: 2018-04-26

© 2018 Walter de Gruyter GmbH, Berlin/Boston

Downloaded on 23.9.2025 from https://www.degruyterbrill.com/document/doi/10.1515/iwp-2018-0017/html
Scroll to top button