Home Integriertes Publizieren
Article Publicly Available

Integriertes Publizieren

Wissenschaftsverlage vor neuen Herausforderungen
  • Sven Fund

    Dr. Sven Fund, Geschäftsführer

    De Gruyter

    Genthiner Straße 13

    D-10785 Berlin

    EMAIL logo
Published/Copyright: January 17, 2013
Become an author with De Gruyter Brill

Zusammenfassung:

In den letzten zehn Jahren hat sich die Wissenschaftskommunikation fundamental verändert. Mit besonderem Fokus auf den Beitrag von Verlagen auf die Wissenschaftskommunikation wird aufgezeigt, worin die zentralen Herausforderungen bestehen. So wird am Beispiel von De Gruyter verdeutlicht, wie tiefgreifend technische Innovationen die traditionelle Verlagsarbeit verändert haben und worin die Aufgaben eines modernen Wissenschaftsverlags im 21. Jahrhundert bestehen.

Abstract:

During the last decade, the academic communication has fundamentally changed. With particular focus on the input of publishers on how to communicate about science in general it is demonstrated, which key challenges there are. The example of De Gruyter illustrates how technical innovations have changed the traditional way of publishing profoundly and what assigments might be new for a modern scientific publisher in the 21st Century.

Die vergangene Dekade hat massive Veränderungen in der Wissenschaftskommunikation gebracht. Die Verschiebung von Erwerbungsbudgets in Bibliotheken von gedruckten zu elektronischen Zeitschriften und Büchern, die intensive Debatte um Open Access als alternative, potenziell verlagsunabhängige Form des Verlegens, sich stark wandelnde Nutzerpräferenzen bei Wissenschaftlerinnen und Wissenschaftlern sowie die fortschreitende Konzentration im Verlagswesen haben einen vorher nicht gekannten Anpassungsdruck auf Wissenschaftsverlage verursacht. Technologische Basis dafür ist das Internet, die Folgen für die tägliche Arbeit in allen Segmenten der Wissenschaftskommunikation sind einschneidend. Nutzung, in der Welt gedruckter Informationsmedien allenfalls von anekdotischer, zudem schlecht messbarer Bedeutung, hat sich zu einer der zentralen Entscheidungsdeterminanten von Kaufentscheidungen entwickelt. Das Beherrschen technischer Standards, die leider nicht so standardisiert sind, wie Inhaltedistributoren (und wohl auch Bibliotheken) sich dies wünschen würden, ist zu einer neuen, sehr fluiden Kompetenz von Wissenschaftsverlagen im Digitalen geworden. Eine große Zahl von Verlagen sucht – wie auch Bibliotheken und Wissenschaftsförderer – in diesem sich dramatisch wandelnden Umfeld ihre neue Rolle. Dieser Beitrag unternimmt den Versuch, die zentralen Herausforderungen zu benennen und mögliche Entwicklungsszenarien abzuleiten. Dies ist eine Aufgabe, die eine konzentrierte Argumentation erforderlich macht. Aus diesem Grund möchte ich mich hier auf den Beitrag von Verlagen zur Wissenschaftskommunikation beschränken. Es steht außer Frage, dass Wissenschaftler, die sie finanzierenden Forschungseinrichtungen und vor allem auch Bibliotheken ebenso wichtige Teile des Gesamtsystems sind.

1 Konzentration auf Anbieter- und Nachfragerseite

Die Ausgangssituation am Ende des 20. Jahrhunderts war für Wissenschaftsverlage alles andere als unsicher oder unbequem. Stabiles Wachstum, hohe, von der makroökonomischen Entwicklung weitgehend unabhängige Renditen und ein überwiegend positives Image bei Wissenschaftlern wie Bibliotheken bereiteten wenig Anlass zu einem sorgenvollen Blick in die Zukunft; der Investitionshunger von branchenfremden Finanzinvestoren in Wissenschaftsverlage war ein klares Zeichen dafür. Mit dem Aufkommen der sogenannten Zeitschriftenkrise in den 1990er Jahren – teils exzessiven Preissteigerungen führender journals bei nur wenig wachsenden Bibliotheksbudgets – und die Reaktion der wissenschaftlichen community in Form der aufkommenden Open Access-Debatte stellten den Beginn eines emanzipatorischen Prozesses dar, der zusammen mit der raschen Verbreitung der Internet-Nutzung weltweit die Entwicklung bis heute prägt.

Wissenschaftsverlage reagierten auf die neuen technischen Möglichkeiten zunächst verhalten positiv. Verhalten, da nur wenige Marktteilnehmer, allen voran Marktführer Elsevier, aber kurz darauf auch die Verfolger, die Digitalisierung ihrer Inhalte entschieden in neue Geschäftsmodelle gossen. Positiv, da die Gruppe der early adopters diese neuen Angebote weitgehend ohne disruptive Effekte aus einer reinen Print-Welt in eine zunächst hybrider und dann zunehmend digitaler Publikationsmodelle überführen konnten.

Die Übertragung der Erfahrungen aus der Welt der wissenschaftlichen Zeitschriften in die der Buchpublikationen – ab 2005 mustergültig von Springer Science + Business Media umgesetzt – war angesichts der aus Verlagssicht positiven Erfahrungen konsequent. Auch Initiativen zur Retrodigitalisierung von Inhalten – zunächst wiederum von Zeitschriften, dann auch von Buchprogrammen – folgten der Logik, möglichst viele Inhalte für ihre digitale Nutzung vorzubereiten. Und sie folgten der Einsicht, dass eine kritische Masse an digital vorliegenden Inhalten für deren intensive Nutzung unabdingbare Voraussetzung sein würde.

Mit der Digitalisierung der Frontlist-Produktion wissenschaftlicher Publikationen ging eine Anpassung des Geschäftsmodells einher. Nicht mehr einzelne Abonnements oder Buchkäufe wurden bei den großen Anbietern wissenschaftlicher Literatur getätigt, sondern sogenannte big deals, der Erwerb von üblicherweise thematischen Paketen oder gar der gesamten Kollektion von Inhalten. In der Konsequenz stieg die Komplexität von Kaufprozessen und damit der Abstimmungsbedarf erheblich, und mit ihnen die Rabatte für die erworbenen Produkte. Bibliothekskonsortien formten sich, um der steigenden Marktmacht von Anbietern großer Pakete wirkungsvoll begegnen zu können, mit einigem Erfolg. Volumen war nun auf der Verkäufer- wie der Einkäuferseite zu einer zentralen Dimension geworden; eine Dimension, die es in dieser Bedeutung nur zehn Jahre zuvor noch nicht gegeben hatte.

2 Open Access: The big white elephant

Ab 2003 fand Open Access als Gegenbewegung von Akademikern und Wissenschaftsförderungseinrichtungen einen institutionalisierten Kristallisationspunkt im „Bethesda Statement“ und der „Berlin Declaration“. Die Frontenbildung zwischen einer besser als zuvor organisierten scientific community und den Wissenschaftsverlagen verhärtete sich. Während die Befürworter von Open Access mit ihrer scharfen Kritik Wenige meinten – auch hier stand der Marktführer wieder im Mittelpunkt –, fühlten sich viele kleinere Verlage, die in ihrem Handeln wenig Verwerfliches erkennen konnten, mit angesprochen. Die Frontstellung zu lösen – zunächst in den Natur-, mittlerweile auch in den Geisteswissenschaften – dauerte etwa eine Dekade. In dieser Zeit verlor Open Access für zahlreiche Marktteilnehmer seinen Schrecken, Versuche im Bereich der Zeitschriften[1] schlossen sich bald auch solche mit Büchern[2] an.

Open Access sorgte im wissenschaftlichen Publizieren für eine Menge an Experimenten und Versuchen, meist finanziert durch die öffentliche Hand. Kritikwürdig ist aus heutiger Sicht daran vor allem, dass hier partiell Infrastrukturen geschaffen wurden, die bei kommerziell agierenden Marktteilnehmern zu einem großen Teil bereits vorhanden waren und zu teuren Doppelstrukturen führten. Zudem ließen und lassen einige der Experimente das Maß an Professionalität vermissen, das sowohl die bibliothekarische als auch die wissenschaftliche Gemeinschaft zu Recht von Verlagen erwarten, etwa die Einhaltung technischer Standards, die dauerhafte Archivierung publizierter Inhalte und die angemessene Verbreitung in internationalen Verweissystemen.

Es sei aber ebenso betont, dass der politische Zweck von Open Access Verlage und vor allem auch ihre Standesorganisationen nachhaltig ins Grübeln brachte. Die Fragen nach der eigenen Rolle im wissenschaftlichen Kommunikationsprozess und die nach dem angemessenen Preis für die von Verlagen erbrachte Serviceleistung beschäftigt die Branche nun seit einigen Jahren.

3 Technische Innovation als Schrittmacher

Technische Innovation spielte in Verlagen traditionell eher eine untergeordnete Rolle. In den vergangenen Jahrzehnten konnte sie häufig an Druckereien und Satzbetriebe ausgelagert werden. Nicht so in den vergangenen 20 Jahren: Technologie ist heute aus verlegerischen Kernprozessen nicht mehr wegzudenken, zahlreiche große und auch mittelständische Unternehmen haben personell starke electronic publishing-Abteilungen, die den Anschluss ans digitale Zeitalter sicherstellen sollen. Wenngleich die meisten Verleger noch nicht zu Technikexperten wurden, sind solide Kenntnisse von Standards und Systemen in den meisten bedeutenderen Unternehmen mittlerweile vorhanden.

Die Bewältigung technologischer Innovationen hatte in den meisten Wissenschaftsverlagen eine stark steigende Komplexität zur Folge. Die Spezifika verschiedener Produktarten – Zeitschriften und Bücher –, eine häufig hohe programmliche Komplexität über verschiedene Disziplinen hinweg, geringe technische Affinität bei einer Mehrheit der Mitarbeiterinnen und Mitarbeiter, steigende Anforderungen durch die bibliothekarische Außenwelt – Wissenschaftsverlage sehen sich einer Vielzahl von Herausforderungen gegenüber.

4 Die Entwicklung der Digitalstrategie von De Gruyter: Werkstattbericht

Im Jahr 2008 stand De Gruyter, wie die meisten mittelständischen deutschen Verlage, am Anfang seiner Digitalisierungsbemühungen. Während seit Beginn der Dekade eine kleine Auswahl von Zeitschriften, vornehmlich in den Naturwissenschaften, bereits mit den neu erscheinenden Jahrgängen elektronisch vorhanden waren und der Kauf insbesondere des Saur Verlags eine ganze Anzahl unterschiedlicher Datenbanken ins Programm gebracht hatten, blieb ein Großteil des Programms von digitalen Segnungen ausgeschlossen. Allein Pschyrembels Klinisches Wörterbuch war als Datenbank vorhanden, sämtliche andere Bücher waren ohne digitales Pendant.

Mit der Fertigstellung der Zeitschriftenarchive 2007 und dem Beginn der eBook-Produktion für einen Teil der Neuerscheinungen des Jahres 2008 wurde die Tür in die digitale Zukunft aufgestoßen. Zugleich wurden wichtige Weichenstellungen für künftige Geschäftsmodelle getroffen: Hinsichtlich der Infrastruktur entschied der Verlag, mittelfristig sämtliche Inhalte in einer elektronischen Umgebung und mit einem einheitlichen access management anzubieten. Kein leichtes Unterfangen angesichts der 18 verschiedenen und technologisch nicht kompatiblen Plattformen, mit denen die Altverlage Saur, De Gruyter und Niemeyer operiert hatten.

Hinsichtlich der Geschäftsmodelle war es erforderlich, in einem historisch stark dezentralen Verlag Regeln zur Produktion elektronischer Produkte zu vereinbaren und verbindlich durchzusetzen. Dies folgte der Einschätzung, dass Kunden auf Bibliotheksseite nur dann das neue Medium eBook kaufen würden, wenn Doppelerwerbungen in gedruckter und elektronischer Form vermieden werden könnten. Neben der Festlegung technischer Standards, etwa im Bereich von DTDs, wurde entschieden, in Zukunft grundsätzlich jede Novität zur gedruckten Form parallel zeitlich elektronisch erscheinen zu lassen. Preis- und Honorarparität für Kunden bzw. Autoren waren weitere grundlegende Entscheidungen, die die Akzeptanz elektronischer Produkte als zusätzliche Form deutlich begünstigten. In Abwendung von seinen großen Wettbewerbern entschied De Gruyter, elektronische Produkte nicht nur in Paketen anzubieten, sondern auch „Pick & Choose“, also an institutionelle Kunden einzelne Titel zu verkaufen.

Zeitgleich begann das Unternehmen 2009, mit Open Access für Bücher zu experimentieren. Der Einsicht folgend, dass Open Access in den Geisteswissenschaften – dieser Bereich machte 2008 rund 70 % der Umsätze des Verlags im Buchgeschäft aus – zwangsläufig auch in der primären Produktgattung Buch funktionieren muss, um erfolgreich zu sein, wurde mit dem Exzellenzcluster Topoi ein bis heute andauernder Testlauf vereinbart.

Parallel zu einer starken Ausweitung der Zeitschriftenliste durch den Kauf der Verlage Freund und Berkeley Electronic Press 2010 und 2011 waren erhebliche Investitionen in Systeme erforderlich, um das peer review und die anschließenden Produktionsschritte frühzeitig zu digitalisieren und besser steuern zu können. Die Anzahl der Installationen der marktüblichen Systeme vervierfachte sich innerhalb von weniger als zwölf Monaten.

In der Buchherstellung, die traditionell wenig automatisiert arbeitete und nur wenige Schritte in der Wertschöpfung an Dienstleister ausgelagerte, wurde ab 2010 ein xml-Workflow eingeführt. Ziel war es hier, durch ein Maximum an Automatisierung die technischen Voraussetzungen für unterschiedliche Ausgabeformate von eBooks zu schaffen und zugleich möglichst wenige Kernprozesse aus der Hand zu geben.

Auch das Marketing wissenschaftlicher Inhalte änderte und ändert sich im digitalen Kontext fundamental, wobei sich einerseits Werbewege und -methoden aufgrund neuer technischer Möglichkeiten verschieben, andererseits aber auch Ansprechpartner und Bezüge von Marketingkampagnen andere sind als früher. Die direkte Interaktion mit Bibliotheken, aber auch mit Wissenschaftlern, die diese Einrichtungen nutzen und ihre Kaufentscheidungen beeinflussen, hat gegenüber den historisch stark handelsorientierten Kanälen massiv an Bedeutung gewonnen. Technische Kompetenz im Vertrieb um Statistiken, discovery services und Kommunikation von Produktinformationen in Kataloge über Metadaten schließlich dominieren heute zahlreiche Verkaufsgespräche, und zwar sowohl mit Bibliotheken als auch mit dem Handel. Vor diesem Hintergrund war es nur folgerichtig, dass De Gruyter 2010 die beiden traditionell parallel arbeitenden Abteilungen Handels- und Bibliotheksvertrieb zu einem Vertriebsbereich zusammenfasste – auch, um channel conflicts zu vermeiden.

Die technische und administrative Abwicklung von Verkaufsprozessen nimmt, parallel zur wachsenden technologischen Kompetenz im Vertrieb, bei Verlagen und im Handel heute deutlich mehr Raum ein – die Expansion der customer service-Abteilungen vieler Verlage belegt dies augenfällig.

Organisatorisch hatte die Digitalisierung für De Gruyter einschneidende Folgen. Gab es bis 2008 vorsichtige Versuche, im Rahmen einer kaum eingebundenen Online Unit Digitalisierungsvorhaben gleichsam entkoppelt vom bestehenden Geschäft voranzutreiben, wurde die Akquise, Produktion und der Vertrieb elektronischer Produkte nun in die Kernprozesse integriert. Es war offensichtlich, dass die Digitalisierung massive Auswirkungen auf praktisch jeden Arbeitsplatz haben würde. Statt Parallelorganisationen aufzubauen, wurde auf eine kontinuierliche Qualifizierung der im Unternehmen arbeitenden Mitarbeiterinnen und Mitarbeiter gesetzt. Punktuell wurden Kompetenzen, die De Gruyter bis dahin nicht abdecken konnte, durch Neueinstellungen und Personalaustausch ergänzt.

5 Digitalisierung als verlegerische Kernaufgabe

In vielen Verlagen wurden Herstellung und Vertrieb elektronischer Inhalte in Form von Zeitschriften, eBooks und Datenbanken lange Zeit als operative Aufgaben verstanden. In der jüngeren Vergangenheit hat sich jedoch die Erkenntnis durchgesetzt, dass Digitalisierung eine Management-Aufgabe ist. So wird Digitalisierung nicht mehr als isolierter Schritt im Publikationsprozess behandelt, sondern schafft nur dann Wert für Kunden, wenn er integriert in Akquise, Aufbereitung, Vermarktung und Vertrieb von wissenschaftlichen Inhalten etabliert ist. Bräuchte diese Einsicht einen Lackmustest – die Schwächen der bisherigen Selbstpublikationsversuche von Wissenschaft würden ihn abgeben.

Digitalisierung bedarf als Aufgabe in Unternehmen der Steuerung durch die Spitze des Verlags, denn sie durchzieht, wie wir gesehen haben, sämtliche Funktionsbereiche. Das Zusammenspiel von Kundenbedürfnissen, technologischen und organisatorischen Implikationen und qualifikatorischen Voraussetzungen ist erforderlich, um ein Produkt zu kreieren, das Marktanforderungen genügt.

In diesem Sinne werden sich verlegerische Entscheidungen künftig an diesen vier Dimensionen messen lassen müssen: Kundenverständnis und dessen Auswirkungen auf Geschäftsprozesse, Investitionen in skalierbare und nachhaltige Technologien, die Schaffung einer adaptiven Organisation und die fokussierte und kontinuierliche Qualifikation von Mitarbeiterinnen und Mitarbeitern.

Kundenverständnis in einem sich rasch wandelnden Marktumfeld verlässlich aufzubauen, muss nicht Konzernen mit professionellen Marktforschungsabteilungen vorbehalten bleiben. Einige mittelständische Unternehmen haben Beratergremien aus Bibliothekaren, Handelspartnern und natürlich Autoren und Wissenschaftlern, die ihre Inhalte nutzen, aufgebaut. Dabei scheint es wichtig, die richtige Balance zwischen neuen Ideen in diesen Gremien einerseits und Kontinuität in der Beratung andererseits zu erreichen. Für einige Verlage sind diese Expertenforen zu einem zentralen Element ihrer Arbeit geworden: De Gruyter hat es sich beispielsweise zur Regel gemacht, kein neues Geschäftsmodell einzuführen, das nicht zuvor der kritischen Diskussion in seinen library advisory boards und vergleichbaren Gremien mit Handelspartnern und Wissenschaftlern standhalten konnte.

Investitionen in Technologie scheint die Achillesferse für viele Verlage, und zwar weniger aus finanziellen Gründen. Willens, Produkte für die digitale Welt zu ertüchtigen, fehlt es insbesondere kleinen Verlagen an der fachlichen Kompetenz, Dienstleister auszuwählen und Prozesse im Unternehmen an neue Herausforderungen konsequent anzupassen. Große Marktteilnehmer hingegen leiden häufig unter mangelnder Koordination ihrer digitalen Investitionen. Ein Nebeneinander von Formaten, Systemen und Plattformen ist die Folge, die selten im Interesse von Kunden und Nutzern ist. Wieso sollten beispielsweise elektronische Inhalte, die in unterschiedlichen Geschäftsmodellen publiziert werden – etwa im Abomodell und Open Access – auf verschiedenen Plattformen angeboten werden?

Flexible Organisationen, sowohl in der Aufbau- als auch in der Ablauforganisation, sind im hybriden Umfeld zwischen Gedrucktem und Digitalem bedeutsam. Denn ohne Frage werden „traditionelle“ Kompetenzen des Verlegens zu einem großen Teil weiterhin gebraucht. Das Gewinnen hervorragender Autoren für ein Programm, ihre positive Bindung an den Verlag, zahlreiche interne Prozesse und nicht zuletzt gute Verbindungen mit den Kunden werden auch dann Kernkompetenzen von Verlagen bleiben, wenn sie ausschließlich digital produzieren werden. Aber die wachsende Bedeutung, etwa von abstracting & indexing im Marketing, das an Wichtigkeit gut gestaltete Kataloge in einigen Bereichen mittlerweile deutlich in den Schatten stellt, muss schlicht organisatorisch abgebildet werden. Zahllose weitere Beispiele aus allen Funktionsbereichen ließen sich finden. Und da Entwicklungen in der Digitalisierung offensichtlich einer beschleunigten Veränderung unterliegen und sich teils schwer antizipieren lassen, ist die Anpassung von Strukturen in deutlich kürzeren Zeitintervallen als in der Vergangenheit leider nicht immer zu verhindern.

Kontinuierliche Mitarbeiterqualifikation wird in Phasen des Wandels zu einer heiklen Aufgabe, zumal in einer Branche wie dem Verlagswesen, die wenig Erfahrung in der Entwicklung von Talenten in Unternehmen hat. Heikel deshalb, weil die Qualifikationsprofile in Verlagen, auch in kleinen, stark variieren, und weil der Berufszugang zugleich wenig strukturiert ist. Brancheneinrichtungen leisten einen Beitrag zur Lösung dieses Dilemmas, die Aufgabe der Mitarbeiterqualifikation können sie jedoch erfahrungsgemäß nicht vollständig übernehmen. De Gruyter hat hierauf mit zwei Initiativen reagiert: Neben der hochgradig strukturierten Qualifikation von handwerklichen und technischen Fähigkeiten, genießt die Förderung des unternehmerischen Nachwuchses aus allen Abteilungen im Rahmen eines durch Fachleute moderierten Think Tanks hohe Aufmerksamkeit.

Wissenschaftsverlage in Deutschland sind auf die neuen Herausforderungen – Ausnahmen bestätigen die Regel – weniger gut vorbereitet als andere Branchen. Aufgrund niedriger Markteintrittsbarrieren und zugleich geringen Anpassungsdrucks in der Vergangenheit haben sie wenig Erfahrungen mit professionellen Verfahren, etwa zur Innovation von Produkten und ihrer Markteinführung. Es gilt, die Bereitschaft zu entwickeln, umfangreich neue Praktiken zu testen und die Formulierung von Dienstleistungen und Produkten von Dritten abhängig zu machen.

6 Innovation heute: Die Entdeckung des Nutzers

Die Diskussion zwischen Bibliotheken und Verlagen der vergangenen Jahre, einmal abgesehen von lästigen Grabenkämpfen ums Urheberrecht, fokussieren sich zunehmend auf die Erhöhung von Effektivität und Effizienz in der Erwerbung. Neben der historisch wenig fruchttragenden Debatte über Preise und ihre Erhöhungen, ist dabei besonders der Trend zum nutzungsbasierten Erwerb, patron driven acquisition (PDA), interessant.[3] In diesem Modell wird sehr deutlich exemplifiziert, wie die Zukunft der Zusammenarbeit zwischen Verlagen und Bibliotheken unter den Rahmenbedingungen integrierten Publizierens aussehen könnte. Hier stellen Verlage ihr gesamtes Programm – oder zumindest einen großen Teil dessen – ihren Kunden pauschal zur Verfügung. Die Erwerbungsentscheidung trifft – je nach Modell – der patron zwar nicht vollständig, er spricht jedoch beim Kauf über die Nutzung ein erhebliches Wort mit. Es steht außer Frage, dass PDA Bibliotheken und Verlage vor neue Herausforderungen stellt, einige Aspekte von Wissenschaftskommunikation in der digitalen Welt werden durch dieses Modell aber auch klarer. So gewinnen flexible Daten- und Geschäftsmodelle sowie verlässliche Statistiken an Bedeutung, der Zugang zu Information wird liberalisiert und durch nutzungsgesteuerte Akquisition um ein Vielfaches effizienter. Was auch klar ist: Verlage, die jetzt nicht über einen soliden Corpus digitaler Inhalte verfügen, werden es in Modellen wie PDA sehr schwer haben, ihre angestammte Position verteidigen zu können.

7 Integriertes Publizieren als Zukunftsmodell

Jede Industrie durchläuft Zyklen der Zentralisierung und der Fragmentierung, so auch das Verlagswesen. Während die Digitalisierung von Produkten und zunehmend auch von Prozessen wie auch die Diskussion um Open Access und andere Themen die zentrifugalen Tendenzen deutlich verstärkt haben, ist es für Wissenschaftsverlage an der Zeit, ihre Geschäftsmodelle zu integrieren, um gegenüber ihren Kunden auch in Zukunft überzeugende Leistungen erbringen zu können. Dies wird ohne Frage den wirtschaftlichen Konsolidierungsdruck im Verlagswesen verstärken, denn für alle oben beschriebenen Aufgaben braucht es eine kritische Mindestgröße.

Was werden die Konsequenzen für das Ökosystem der Wissenschaftskommunikation sein? Zunächst: vermutlich sind die besten Zeiten des big deal vorbei, in denen Bibliotheken zum Kauf großer Pakete durch die Gewährung exzessiver Rabatte bewegt werden konnten. Die wirtschaftlichen Bedingungen lassen dieses Modell auch für große Einrichtungen schlicht nicht mehr zu.

Für Wissenschaftler und Forschungsförderer sind unter dem Paradigma des integrierten Publizierens keine negativen Effekte erkennbar. Sie profitieren von der Professionalisierung von Produktion und Verbreitung ihrer Publikationen, wobei sie anhand des Absatzes und natürlich der Nutzung sehen, welche Leistung der Verlag für das Ergebnis ihrer geistigen Arbeit erbringt und wie relevant diese in den Augen eines „Marktes“ ist.

Für den Handel, seit einiger Zeit nun in einer merkwürdigen Mischung zwischen Schockstarre, Aktionismus und politischer Agitation, wird es höchste Zeit, den Weg der Pioniere in diesem Segment, die es ja durchaus gibt, zu gehen. Es war und bleibt falsch, lediglich zu reagieren, und diejenigen, die früh und mutig Neues getestet und alte Modelle über Bord geworfen haben, werden jetzt deutlich sichtbar belohnt.

Verlage schließlich werden unter den Bedingungen des integrierten Publizierens immer mehr zu dem, was Autoren und Bibliotheken von ihnen erwarten: Anbietern eines Services, den sie besser und kostengünstiger erbringen, als dies andere Teilnehmer des wissenschaftlichen Kommunikationsprozesses können. Gelingt ihnen der Schritt vom „Eigentümer“ der Inhalte, der sie nie waren, zum Dienstleister nicht, werden sie über kurz oder lang verschwinden. Allerdings: Dieses apokalyptische Szenario ist aus meiner Sicht in einem wettbewerbsintensiven Markt, wie es das Verlagswesen in digitalen Zeiten ist, wenig wahrscheinlich.

About the author

Sven Fund

Dr. Sven Fund, Geschäftsführer

De Gruyter

Genthiner Straße 13

D-10785 Berlin

Published Online: 2013-01-17
Published in Print: 2013-01-04

© 2013 by Walter de Gruyter Berlin Boston

Downloaded on 3.10.2025 from https://www.degruyterbrill.com/document/doi/10.1515/bd-2013-0004/html
Scroll to top button