Zusammenfassung
Durch die Informationsmacht der Suchmaschinen ist im Zeitalter des Internet das Wissen in Gefahr, kommerzialisiert zu werden. Informationelle Souveränität zu besitzen, ist aber schon seit dem Altertum auch von politischer Bedeutung. Die Infrastruktur für die wissenschaftliche Information in Deutschland ist durch das System der überregionalen Sammelschwerpunkte geprägt, die gewährleisten, dass auch spezielle Forschungsliteratur zur Verfügung steht. Die Deutsche Forschungsgemeinschaft hat damit begonnen, dieses System der digitalen Publikationswelt anzupassen und Sondersammelgebiete in Fachinformationsdienste umzuwandeln, die leistungsfähige Informationsservices für spezielle Fachcommunities bieten sollen. Allerdings erweisen sich Vorgaben wie die Reduktion der Erwerbung auf den aktuellen Bedarf und der Wegfall ganzer Sammelgebiete im Rahmen einer reinen Projektförderung als Gefährdung der Informationsinfrastruktur: Tausende von Zeitschriften und Büchern müssen abbestellt werden oder können nicht mehr gekauft werden. Breiter angelegte Planungen und neue Finanzierungsmodelle in Zusammenarbeit von Bund und Ländern sind erforderlich, um zu zukunftsweisenden Strukturen zu kommen, mit denen an die bisherigen Erfolge angeknüpft werden kann.
Abstract
The information power of search engine providers is commercializing knowledge more and more. But informational sovereignty has also political impact since the antiquity. The German system of national special collection libraries guarantees access to specialised research literature. The German Research Society (Deutsche Forschungsgemeinschaft) has begun the redesign of the existing system to adapt it to the digital revolution. Subject information services will now provide the information for special research communities. However, guidelines like the reduction of the collections to the material of immediate interest and the closing of special collections during the process of evaluation endanger the information infrastructure; thousands of journals have to be cancelled and thousands of specialized titles will no longer be purchased. Planning on a broader horizon and a financial cooperation of the federal government and state governments are both essential in developing an information infrastructure for the future that can match the success of the traditional system.
Kurzfassung
Durch die Informationsmacht der Suchmaschinen ist im Zeitalter des Internet das Wissen in Gefahr, kommerzialisiert zu werden. Eine informationelle Souveränität zu besitzen ist auch von politscher Bedeutung. Ein historischer Rückblick zeigt, dass seit dem Altertum die umfassende Sammlung von Literatur als Grundlage wissenschaftlicher Forschung und politischer Kraft immer wieder genutzt worden ist. Anderseits sind auch Alternativen selektiver Erwerbung in „schlanken“ Bibliotheken insbesondere für Hochschulen immer wieder diskutiert worden; dabei kam man aber immer auch zu dem Ergebnis, dass ein optimiertes Arbeiten der Einzelbibliothek nur funktionieren kann, wenn ein umfassendes Reservoir für die Forschung im Hintergrund zur Verfügung steht. Am amerikanischen System wurde z. B. bemängelt, dass es zu wenig Input in die fachlich qualitative Auswahl bei den Einzelbibliotheken steckt und die großen Bibliotheken in ihrem von Konkurrenzdenken geprägten Bildungsumfeld nicht effizient zusammenarbeiten können. Demgegenüber erwies sich die deutsche Praxis der letzten Jahrzehnte mit gut organisierter, umfassender Sammlung im Rahmen der überregionalen Sammelschwerpunkte, qualifizierter Auswahl an den Einzelbibliotheken und dem gezielten Angebot von Mehrfachexemplaren in den Lehrbuchsammlungen als eine perfekte Kombination erfolgversprechender Strategien. Der DFG ist es gelungen, das System der überregionalen Literaturversorgung erfolgreich zu moderieren, obwohl ihr finanzieller Beitrag an den Gesamtkosten verhältnismäßig gering war. Dem Zuschuss von 75% der Mittel für den Kauf ausländischer Literatur standen bei den Sondersammelgebieten, je nach Fachgebiet, Kosten allein für die vollständige Erwerbung der deutschen Literatur gegenüber, die diesen fast gleichkommen konnten. Darüber hinaus wurden die Personalkosten voll von den Bibliotheken finanziert, die wegen der spezialisierten Bestände deutlich erhöhten Personalaufwand für Beschaffung und Katalogisierung (mit minimalen Möglichkeiten zur Fremdleistungsnutzung) haben. Da die DFG nur die Spitze des Bedarfs mitfinanzierte, ist es nicht verwunderlich, dass die systematische Förderung der Erwerbung der speziellen Forschungsliteratur im Rahmen des Sondersammelgebietsprogramms jahrzehntelang auch bei ihren Gremien volle Anerkennung fand – war doch damit gewährleistet, dass mit an Sicherheit grenzender Wahrscheinlichkeit für den Grundbedarf nicht gesammelte Titel der Forschung dauerhaft zur Verfügung standen. Möglicherweise auch als indirekte Folge des Antragsbooms bei der Normalförderung, der durch den erhöhten Druck bedingt ist, Drittmittel für die Forschung einzuwerben, ist das neue Programm der Fachinformationsdienste, wie im Normalverfahren der DFG auf Projektanträge mit überschaubarer Laufzeit umgestellt worden, die nach fachlicher Prüfung bewilligt oder abgelehnt werden. Außerdem soll auch die Auswahl der Literatur auf den kurzfristigen Bedarf eng definierter Fachcommunities ausgerichtet werden. Damit aber können z. B. Lizenzen elektronischer Zeitschriften nur noch für einen begrenzten Kreis von Fachwissenschaftlern abgeschlossen werden. Somit werden interdisziplinär arbeitende Forscher – von anderen Interessierten wie Wissenschaftsjournalisten ganz abgesehen – ausgeklammert. Als zusätzliches ernsthaftes Problem hat sich erwiesen, dass die schwerpunktmäßige Ausrichtung auf die Fachinformationsdienste zur Einstellung auch von geistes- und sozialwissenschaftlich ausgerichteten Sondersammelgebieten geführt hat, die in besonderer Weise auf eine umfassende Sammlung auch von Literatur angewiesen ist, die kurzfristig von einem engen Kreis der Spezialisten (noch) nicht benötigt wird. Gerade in Europa hat sich in der Renaissance gezeigt, wie epochemachend die Wiederentdeckung und neue Nutzung „latenter Sammlungen“ in den Bibliotheken für die Kultur- und Geistesgeschichte werden kann. Nicht ohne Grund sieht das „Comité des Sages“ durch die Digitalisierung die Chance einer neuen Renaissance. Nur wenn es gelingt, die wissenschaftliche Literatur vollständig in den immer schneller voranschreitenden Forschungsprozess effizient zu integrieren und die flüchtigen digitalen Medien dauerhaft zugänglich zu machen, kann die Wissenschaft in Deutschland weiter erfolgreich sein. Es ist verständlich, dass die DFG als wissenschaftsfördernde Institution sich mit dieser sich ausweitenden Infrastrukturaufgabe überfordert fühlt; ihre mit dem FID-Programm vorgezeichnete Förderausrichtung auf die Entwicklung und Unterstützung von speziellen Dienstleistungen für die informationelle Versorgung der Fachwissenschaften erscheint von daher durchaus konsequent – es müssen dann aber alternative Wege für die Finanzierung der Sammlungsaufgabe gefunden werden.
Für die flüchtigen digitalen Medien kann der alte Sammlungsbegriff, der physischen Besitz voraussetzte, nicht mehr gelten. Das heißt aber nicht, dass die Rolle der Bibliotheken als internationale Infrastruktur für die umfassende Zugriffssicherung auf forschungsrelevante Dokumente obsolet geworden wäre. Im Gegenteil: War die Realisierung schon im ausufernden Druckzeitalter der letzten Jahrzehnte nur noch in organisierter Arbeitsteilung möglich, so muss das Management der Informationsinfrastruktur im Zeitalter des digitalen Leitmediums noch stärker professionalisiert werden. Ziel muss es sein, neben genuinen lokalen Sammlungen die außerhalb liegenden Angebote forschungsrelevanter Daten im Internet ebenso dauerhaft zugänglich zu machen wie die Verlagsangebote. Dabei erweitert sich das zu erfassende Material nicht nur medial (digitalisierte und digitale Publikationen in verschiedenen Ausgabeformen wie Print, PDF oder unterschiedlichen E-Book-Formaten, aber auch Audio-Videomedien); durch Einbeziehen von Forschungsdaten und die Integration von sozialen Medien (Blogs usw.) sind völlig neue Inhalte und Kommunikationsformen zu berücksichtigen, die es nicht nur aufzufinden, sondern auch zu filtern, zu erschließen und dauerhaft zugänglich zu machen gilt. Das kann nur in engem Kontakt mit der wissenschaftlichen Forschungscommunity bewältigt werden. Dazu genügt es nicht mehr, fertige Produkte zu speichern und damit traditionelle Sammlungen anzulegen. Die Versionskontrollen im fluiden Wissensraum sind ebenso Herausforderungen, wie die dauerhafte Sicherung von Zugriffsmöglichkeiten über permanente Links. Die Mehrwertdienste der Bibliotheken sollten über Kuration und Präservation hinaus auch die Erschließung mit Linked Open Data und die Weiterverarbeitung der Publikationen für das Semantic Web umfassen. In virtuellen Forschungsumgebungen sollte der gesamte Workflow des Forschers von der Ermittlung der Daten über ihre Auswertung und die Publikationsvorbereitung bis zur Archivierung der fertigen Arbeit auch bibliothekarisch unterstützt werden. Bei der Entwicklung derartiger Services können die Förderinstrumente der DFG voll zum Tragen kommen. Für die komplexe Aufgabe des umfassenden Aufbaus und der dauerhaften Sicherung des Zugriffs auf die elektronischen Daten bedarf es eines Rahmenplans, der Forschung, Institutionen der Informationsinfrastruktur aber z. B. auch Provider von Cloud-Diensten und Verleger einbezieht. Auch wenn sich der Anteil kommerzieller Verlage an der Bereitstellung relevanter Forschungsdokumente reduzieren wird, ist die Dekommodifizierung der Verlagsprodukte für die freie Zugänglichkeit zu Publikationen für die Forschung aber auch die interessierte Öffentlichkeit wegen des verschärften Urheberrechts eine hochkomplexe Aufgabe. Nicht ohne Grund gehört die Lizenzierung zu den acht Handlungsfeldern des Gesamtkonzeptes der Kommission für Informationsinfrastruktur (KII).
Der Rahmenplan für das Management des kontinuierlichen „Sammlungs“aufbaus, d. h., der dauerhaften Zugriffssicherung auf gedruckte wie digitale Dokumente durch stabile Institutionen, ihre Finanzierung und deren Einbettung in europäische und internationale Kooperationsbeziehungen ist die natürliche Aufgabe des neuen Rates für Informationsinfrastruktur. Er müsste die Vorgaben für eine arbeitsteilige Struktur und eine adäquate Finanzausstattung erarbeiten, die im Rahmen der Neuordnung der Kooperationsbeziehungen von Bund und Ländern auch die Integration der Hochschulbibliotheken in das zukünftige System ohne Probleme ermöglicht, die – wie in der Vergangenheit – eine bedeutende Rolle bei der überregionalen Informationsversorgung spielen müssen. In Anbetracht einer derartigen Entwicklung wäre zu wünschen, dass die DFG sich entschließen kann, bis zur Gestaltung dieser neuen Infrastruktur die Förderung des Kaufes von Literatur (natürlich mit verstärkter Berücksichtigung digitaler Medien) für einen Zeitraum von ca. 3 bis max. 5 Jahren fortzusetzen, auch wenn einzelne Konzepte für die Fachinformationsdienste noch nicht die Zustimmung der Gutachter finden. Durch ein derart behutsames Vorgehen können schwer wiedergutzumachende Einbrüche in die Literaturversorgung vermieden und der zielgerichtete Übergang in eine zukunftsorientierte Informationsinfrastruktur gesichert werden, mit dem Deutschland an die Erfolge der Vergangenheit anknüpfen kann. Dies ist auch ein entscheidender Schritt, um der öffentlichen Forschung und unserem Land die informationelle Souveränität zu erhalten, die u. a. durch die kommerziellen Interessen der Suchmaschinenbetreiber gefährdet ist. Die weltweit vernetzten Bibliotheken sind dafür verlässliche Partner, auf deren Neutralität man vertrauen kann. Ihre Dienstleitungen sind wichtiger denn je.
1 Einleitung
Information ist von eminent politischer und wirtschaftlicher Bedeutung – dies ist zuletzt durch die NSA-Affäre auch in das Blickfeld der breiten Öffentlichkeit getreten. Dass dabei nicht nur geheimdienstlich relevante Informationen, sondern auch wirtschaftliche und wissenschaftliche Daten ausgeforscht wurden, gilt als sicher. Doch schon durch die intensive Nutzung der Suchmaschinen, die Verwendung von google-books und google-scholar für die wissenschaftliche Recherche und von google-docs und google-drive für das Erstellen von Forschungspublikationen, werden Inhalte und Verhaltensweisen gespeichert und in Kanäle geleitet, von denen man annehmen muss, dass sie nicht nur massiv für gewinnorientierte wirtschaftliche Interessen genutzt, sondern darüber hinausgehend an weitere Interessenten weitergegeben werden können und weitergegeben werden. Google sucht darüber hinaus durch Digitalisierung auch der gedruckten Literatur den landläufig schon jetzt verbreiteten Eindruck zu unterstützen, dass im Internet alle relevanten Informationen ohne Kosten im Überfluss zur Verfügung stehen. Mit dem typischen Verhalten eines Wirtschaftsunternehmens, das ein Monopol anstrebt, sucht Google so Konkurrenten aus dem Weg zu räumen. Das gefährdet auch die Position der Bibliotheken, die als Garanten des umfassenden freien Zugangs zur Information für Wissenschaft und Demokratie von eminenter Bedeutung sind.
2 Die Bibliothek(en) als Infrastruktur der umfassenden Information – ein Blick in die Geschichte
Die Aufgabe der wissenschaftlichen Bibliothek ist es, forschungsrelevante Materialien dauerhaft zugänglich und nutzbar zu machen. Idealerweise sollen die Bibliotheken alles, was publiziert worden ist, bereitstellen können – wenn nicht aus eigenem Bestand dann in Kooperation mit anderen. Dieses Ziel der vollständigen Information auf der Grundlage umfassenden Sammelns ist immer wieder in seiner Wichtigkeit erkannt und zeitgerecht umgesetzt worden.[1] Das Vollständigkeitsideal wurde in unterschiedlicher Form verwirklicht. Auch die damit verfolgten Ziele waren verschieden und glichen sich doch in der Überzeugung, dass Information und Wissen Macht bedeuten. Die vollständige Sammlung diente
in Alexandria der umfassenden Integration der Bestände in den griechischen Kulturkosmos, um so die beherrschende kulturelle und politische Position des griechischen Königshauses in einem Land zu sichern und auszubauen, in dem die Griechen nur eine Minderheit bildeten;
bei Naudé der umfassenden Berücksichtigung der unterschiedlichsten Aspekte und auch der abweichenden Meinungen, um sie insbesondere als Grundlage der unabhängigen politischen Beratung zu nutzen;
bei Panizzi dem Ziel, die Wissenschaftskraft der Britischen Nation dadurch zu stärken, dass man konzentriert in London die Literatur anderer Länder und Sprachen in ähnlich großem Umfang zur Verfügung hatte, wie in der besten Bibliothek des jeweiligen Landes;
bei Putnam in der Library of Congress der Zugriffssicherung auf umfassende Information in den Vereinigten Staaten für Kongress und Nation aus der Erfahrung, dass es unvorhersehbar ist, welche Publikationen relevant sein werden.
Dem steht das Modell der zielgerichteten Auswahl mit klaren (wissenschaftlichen) Zielen gegenüber,
das bei Cassiodor in Vivarium zu einer Kanon bildenden Grundausstattung an geistlicher wie weltlicher Literatur führte, die zur Vorbereitung oder Durchführung des Studiums und richtigen Verständnisses der Bibel dienen sollten;
das im Mittelalter zunächst zu dem Versuch führte, Cassiodors Ausstattungsniveau (wieder) zu erreichen, um darauf aufbauend schon in der Karolingerzeit und dann verstärkt seit dem 12. Jahrhundert die Wissensgrundlagen durch Übersetzungen aus dem Arabischen und Griechischen zu verbessern und auf neue Inhalte auszudehnen;
das bei Leibniz zur Bereitstellung der Grundlagenliteratur für die rationale Verwaltung und die im Staatsinteresse liegende Ausweitung der wissenschaftlichen Forschung diente und
das in Göttingen den wissenschaftlichen Fortschritt so dokumentieren sollte, dass darauf aufbauend Überblickswerke für die Lehre geschrieben und Forschung auf hohem Niveau erfolgen konnte.
Auch die dabei eingesetzten Methoden sind verschieden; sie spiegeln zugleich den Stand der Entwicklung der Technik der Produktion und der Verbreitung der Medien wider:
In Alexandria werden alle (auch nicht legale) Möglichkeiten, Literatur in den eigenen Besitz zu bringen, ausgeschöpft, um sie dann für einen Kreis privilegierter Wissenschaftler durch – teilweise editorisches – Abschreiben zu sichern und durch sachliche Ordnung zu erschließen.
In Vivarium wird durch Anweisungen für das (auch hier tendenziell edierende) Vervielfältigen und die Vorgabe eines Ordnungsschemas die Grundlage für den gezielten Bestandsaufbau gelegt.
ei Naudé erfolgt der umfassende Aufbau der Bibliothek auch durch das scheinbar ziellose Erwerben ganzer Sammlungen ohne Rücksicht auf die bibliophile Kostbarkeit der Bücher. Ihre geordnete Aufstellung, mit dem Ziel der völligen Konzentration auf den Bestand, erfolgt kostensparend unter so gut wie restloser Ausnutzung der vorhandenen Wandflächen bei Verzicht auf den äußeren Prunk der barocken Saalbibliotheken der Zeit, wie man es auch nach dem Umzug in das Gebäude der heutigen Mazarine in Paris erkennen kann.
Bei Leibniz und in Göttingen wird auf die Ergänzung der sachlichen Aufstellung durch Kataloge besonderer Wert gelegt, wobei Leibniz ein umfassendes Erschließungssystem anstrebt, während man sich in Göttingen ganz auf die praktische Nutzbarkeit konzentriert. Hier aber findet man mit der Kombination von weltweiter Erwerbung und wissenschaftlicher Begutachtung den idealen Weg zur Fortführung des Prinzips der gezielten Auswahl der wissenschaftlich relevanten Publikationen.
Die Internationalität der Sammlung, die schon in Göttingen von großer Bedeutung ist, stehen bei Panizzi im Vordergrund, der für das Katalogisieren Standards und mit Konzentration auf den Alphabetischen Katalog Rationalisierungen einführt, die zur Bewältigung der Massen der umfassend erworbenen Literatur und ihrer schnellen Auffindbarkeit dienen; durch die Bereitstellung einer großen Zahl von Leseplätzen und eine rationelle Zuordnung der Magazine wird das Leistungsniveau einer nationalen Forschungsbibliothek neu bestimmt. International sucht man es zu erreichen und hat es wohl nur in Washington noch übertreffen können.
In allen hier dargestellten Beispielen ist erkennbar, dass den Bibliotheken eine aktive Rolle zukommt. Ihre Sammlungen werden erschlossen und für ihre Klientel gut nutzbar gemacht. Sie stellen aber darüber hinaus ein Angebot dar, das der Forschung nicht nur auf Nachfrage dient, sondern sie oft erst ermöglicht und die Behandlung neuer Forschungsfelder und ‑themen anregt – als ein augenfälliges Beispiel dafür seien die arabischen Handschriften erwähnt, die Ottheinrich von der Pfalz Guillaume Postel abkaufte. Sie ermöglichten in Heidelberg nicht nur den ersten Druck mit arabischen (Holzschnitt-)Lettern, sondern führten auch zu universitärer Forschung und Lehrangeboten im Arabischen – Aktivitäten, die für Jahrhunderte nicht mehr möglich waren, seit die Bibliotheca Palatina 1623 nach Rom transportiert worden war.[2]
3 Der deutsche Weg der koordinierten Erwerbung mit überregionaler Bereitstellung
Die Perfektionierung der drei Grundaktivitäten Sammeln, Erschließen und Benutzen sind die entscheidenden Kriterien für die Leistungsfähigkeit der modernen Gebrauchsbibliothek. Das Ziel der Vollständigkeit konnte bei der zunehmenden Internationalisierung und der Massenhaftigkeit der Produktion, insbesondere in der Spätzeit des Buches als Leitmedium im 20. Jahrhundert nur durch Integration in Netzwerke und Verbundsysteme gesichert werden. Diese ermöglichen eine abgestimmte Erwerbung, die Optimierung der Katalogisierung und den rationellen Zugriff auch auf nicht am Ort vorhandene Bestände. Dieses kooperative Bibliotheksmodell wurde in seinen Vorformen schon durch die Bibliothekspolitik Althoffs im Preußen des späten 19. Jahrhunderts eingeführt. Die Königliche Bibliothek in Berlin hatte darin als Schaltstelle und „heimliche Nationalbibliothek“ (aber nur in Kooperation mit den „übrigen größeren Bibliotheken“, wie schon ihr Direktor Lepsius betonte)[3] eine führende Rolle; einheitliche Katalogregeln (sog. Preußische Instruktionen) ermöglichten Titeldrucke als Service für die Bibliotheken und den Aufbau eines Preußischen Gesamtkatalogs; auch der Leihverkehr erhielt in Berlin mit dem 1905 gegründeten Auskunftsbüro seine Zentrale. Mit der Gründung der Deutschen Bücherei 1913 in Leipzig war schließlich die Grundlage für den dauerhaften Zugriff auch auf die deutsche Buchproduktion gesichert. Nach dem Zweiten Weltkrieg wurde die umfassende Bereitstellung der gesamten erschienenen Literatur in jeder (wissenschaftlichen) Bibliothek für jeden Benutzer durch das im Prinzip umfassende System der überregionalen Literaturversorgung mit Sondersammelgebieten und Zentralen Fachbibliotheken und (heutigen) Deutschen Nationalbibliothek im Verbund mit den 5 Schwerpunktbibliotheken der Sammlung deutscher Drucke in international bewunderter Weise realisiert. Dabei spielte die Deutsche Forschungsgemeinschaft als organisierendes Zentrum (ganz im Sinne Strohschneiders als „die wesentliche Scharnierstelle des föderal organisierten Wissenschaftssystems“[4]) eine bedeutende Rolle. Sie hat auch immer auf eine ausgewogene, aber nicht schematisch berechnete regionale Beteiligung geachtet, so dass auch weniger finanzstarke Partner, wie das Saarland, sich beteiligen konnten.[5] Literaturversorgung galt als eine der entscheidenden Voraussetzungen für die erfolgreiche Forschung. Die SSG-Förderung war deshalb über mehrere Jahrzehnte ein wichtiges Teilprogramm der DFG-Förderung. Das zunächst aus der Notsituation der Nachkriegszeit Anfang der 50er-Jahre entwickelte Ziel sicherzustellen, dass wenigstens ein Exemplar wissenschaftlich relevanter Literatur in einem verteilten und gut abgestimmtem System in Deutschland zur Ausleihe bereit stand, wurde zwar nicht in Perfektion realisiert; der Erreichungsgrad erwies sich aber bei allen Vergleichen mit der Erwerbungssituation anderer Länder als deutlich überlegen. Die DFG hat als ergänzende Geldgeberin – sie finanzierte den Kauf wissenschaftlich relevanter Literatur aller Fachgebiete aus dem Ausland mit einem Anteil von 75% – die Gestaltungschancen, die ihr damit zufielen, voll genutzt.[6] Damit konnte sie den Erfolg dauerhaft sichern, während der vergleichbare amerikanische Versuch, den auf Freiwilligkeit aufgebauten Farmingtonplan nachhaltig zu verwirklichen, nach relativ kurzer Zeit scheiterte, weil in den sehr stark auf Konkurrenz ausgerichteten amerikanischen Universitäten letztlich die lokalen Bedürfnisse Präferenz hatten.[7] Zugleich wurde mit dem verteilten System in Deutschland auch flächendeckend die Innovationskraft und Leistungsfähigkeit der Bibliotheken[8] gestärkt sowie eine gleichmäßige und an Standards orientierte Entwicklung über Ländergrenzen hinweg gefördert.
Das System der Sondersammelgebiete ist immer wieder überarbeitet und neuen Entwicklungen angepasst worden[9], wobei schon die ersten großen Veränderungen in den 60er-Jahren des vorigen Jahrhunderts nicht ohne Diskussionen blieben.[10] Die DFG hat das Programm in einem mehrjährigen Prozess seit 2008 evaluiert[11] und daraus insbesondere drei Folgerungen für einen Paradigmenwechsel von Sondersammelgebieten zu Fachinformationsdiensten gezogen:
Das Prinzip der vorsorgenden Erwerbung, mit dem Ziel relativer Vollständigkeit wird grundsätzlich in Frage gestellt.
Fachinformationsdienste statt Sondersammelgebiete sollen einer klaren Forschungscommunity zugeordnet werden.
Die Bereitstellung von Content soll grundsätzlich elektronisch erfolgen.
Darüber hinaus wurde
ein stark fachlich besetztes Begutachtungsverfahren in Gang gesetzt, bei dem mit der Entscheidung über die Informationsdienste auch die Förderung der Erwerbungsunterstützung gekoppelt wurde.
Hier wird zunächst auf die internationale Diskussion zum Prinzip der vollständigen Sammlung, dann auf die Zuordnung zu den Fachcommunities sowie die Situation nach der ersten Antragsrunde eingegangen, um abschließend auf dem digitalen Paradigma aufbauende Überlegungen zur zukünftigen Entwicklung vorzulegen.
4 Das Prinzip Vollständigkeit – Bestandsentwicklung oder Bestandsmanagement?
Die jüngste Evaluation hat einerseits – wie auch Depping[12] und Griebel[13] hervorheben – das Ergebnis gebracht, dass die Mehrzahl der Befragten Vollständigkeit, Reservoir-Funktion, überregionale Verfügbarkeit und Nachhaltigkeit als Grundprinzipien und Leitziele überwiegend positiv eingeschätzt hat.[14] Auch Kümmel erkennt an, dass Vollständigkeit einhellig als entscheidendes Qualitätskriterium gewertet wird, was mit den bisher geltenden Förderrichtlinien korrespondiert. Einschränkend fügt er aber hinzu, dass der Aufbau eines forschungsrelevanten »Reservoirs« für deutlich mehr als die Hälfte der Befragten aber auch ohne das Bemühen um eine vollständige Abdeckung in der Erwerbung sinnvoll erscheine. Außerdem stellt er fest, dass in der Praxis das theoretische Ziel der »Vollständigkeit« ohnehin nur unter Anwendung verschiedenster Auswahltechniken und Erwerbungsstrategien zur Erfassung der für relevant erachteten Publikationen auf eine so genannte »relative Vollständigkeit« heruntergebrochen werde.[15] Schließlich kommt er abschließend zu dem Ergebnis: „Da die raison d’être des gesamten Systems jedoch nicht mehr der Aufbau einer möglichst vollständigen Literatursammlung ist, sind weniger »vollständige«, aber präziser umrissene und vertiefte Bestände nicht als Verlust, sondern als Gewinn für die Forschung zu sehen.“[16]
Diskussionen um den Wert ausgewählter Bestände hat es immer wieder gegeben. Mit dem plakativen Titel „Farewell to Alexandria“ hat Daniel Gore in einem Sammelband 1976 auf dem Hintergrund des Baubedarfs für die im Bildungsboom der 60er-Jahre des 20. Jahrhunderts stark gewachsenen und weiter wachsenden Bibliotheken die Konzeption der „No-growth, high-performance library“ propagiert.[17] Im Sammelband der Konferenz in Chicago 1975 findet sich auch ein Beitrag von Richard W. Trueswell, der statistische Grundlagen für die nichtwachsende Bibliothek liefert, die er in einer Reihe von Aufsätzen ausführlicher dargestellt und thematisch ausgeweitet hat.[18] Angeknüpft wird hier auch an die Untersuchungen zur Buchnutzung, die von Fussler und Simon in Chicago durchgeführt wurden, um insbesondere eine Strategie für die Aussonderung in Kompakt- oder Ausweichmagazine zu entwickeln.[19] Ergebnisse waren unter anderem, dass in den Naturwissenschaften sich relativ klare Aussagen über die Reduktion der Nutzung im Zeitverlauf machen lassen; in den Humanities ist die Aussonderungsmöglichkeit auf jeden Fall geringer – sie streut auch sehr viel stärker im Bestand und die erwartete Reduktion der Nutzung in einem längeren Zeitraum verlangsamt sich.[20] Das sind Ergebnisse, die nicht verwundern, wenn ich z. B. an die eigene Erfahrung denke, dass in Heidelberg auch zehn Jahre nach dem Einführen der Etikettierung der Magazinbestände im Bestellfall sich immer noch eine kaum verringernde Zahl neu zu erfassender Titel ergab – es war so, als ob sich an einer Forschungsuniversität, insbesondere natürlich die geisteswissenschaftliche Fachcommunity, allmählich durch den Bücherberg der Bibliothek „hindurchfresse“. Mit den amerikanischen Modellen für die Ermittlung der Kosten für die Lagerung von Büchern, wie sie bei Fussler zu finden waren, wurde versucht, die allgemeine Vorstellung zu unterminieren, dass die Größe einer Bibliothek wesentliches Kennzeichen ihrer Qualität sei.[21] Stattdessen suchte man, den Albtraum der immer weiter wachsenden Bibliotheken durch die gut gemanagte „phoenix- library“ zu verdrängen, die durch regelmäßiges Aussondern von Literatur nicht wächst und trotzdem eine höhere Zufriedenheitsrate bei ihren Benutzern erreicht, weil sie vielgebrauchte Literatur gezielt mehrfach erwirbt.[22] Tendenziell führte die Diskussion scheinbar in eine ähnliche Richtung, wie wir sie gegenwärtig bei den Sondersammelgebieten erleben: Die Finanzmittel sollten stärker für Services ausgegeben werden als für die Erweiterung der Sammlungen.[23] Auch unter dem Eindruck von Etatrestriktionen verstärkte sich die Tendenz zum Management von Beständen, wobei aber besonderer Wert auf die Einführung von gemeinsamen Katalogisierungssystemen und überregionalen Servicezentren für die Literaturbereitstellung von Zeitschriftenaufsätzen gelegt wurde; schließlich sollte auch das nationale Literaturreservoir der Großbibliotheken des Landes besser koordiniert werden.[24] Wenn Gore auf die Kosten der Speicherung für nicht gebrauchte Literatur abhebt[25] und nur die Erfüllungsrate, nicht die Zahl ihrer Bände, als Maßstab der Größe einer Bibliothek ansieht, so setzt er aber andererseits einen funktionierenden Leihverkehr mit einem System nationaler Zentren zur Speicherung der selten gebrauchten Literatur voraus. Als die Diskussion über die Nichtnutzung der Literatur durch die Pittsburgh-Studie[26] unter Leitung von Allen Kent erneut aufflammte, äußerte Trueswell eine klar abgewogene Meinung: Er machte zunächst deutlich, dass die Ergebnisse von Pittsburgh die früheren Untersuchungen von Kent und ihm selbst bestätigen. Eine Bibliothek müsse sich entscheiden, in welchem Umfang sie Forschung und Studium unterstützen wolle; dann aber stellt er eindeutig klar: „My opinion is that even the unfrequently used books must be made available to all users“, wobei er als Weg aus damaliger Sicht die Mikroverfilmung, regionale Speicherbibliotheken und „resource sharing“ nennt.[27] Auch für Ross Atkinson ist die kooperative Erwerbung im Rahmen einer systematischen Erwerbungspolitik bei wachsenden Publikationsmengen und knappen Etats der einzige Weg, den Nutzerbedürfnissen entsprechen zu können.[28] Das Ausnutzen von Kooperationsmöglichkeiten fordert schon Danton, einer der prominentesten Vertreter der „comprehensive collection“.[29] Er kritisiert das amerikanische System, weil es zu wenig in die fachlich abgesicherte Auswahl investiere, und setzt sich für ein System von „book collectors“ ein, die an der Zahl das Vorbild des deutschen Fachreferentensystems übertreffen sollten, um möglichst Fehlkäufe nicht benötigter Literatur zu vermeiden. Diese sollten die Literatur „well in advance of the clientele’s need for them“[30] bereitstellen, um in den Haupterwerbungsfeldern – durchaus in Zusammenarbeit mit anderen Bibliotheken – möglichst vollständig alles von Wert zu erwerben: „It is not believed that any man is wise enough, or gifted with sufficient foresight to say that any document (excepting only the wholly derivative) will not be of genuine importance to some scholar to some time.“[31] Es verwundert nicht, dass er deshalb auch dafür plädiert, neben den „needs for the present“ „the needs for the future“ zu berücksichtigen.[32]
In Großbritannien wurde das Management der Bibliotheken auf der Grundlage des Atkinson-Report mit dem Konzept der „self-renewing library“ ebenfalls unter dem Gesichtspunkt der Reduzierung der Kosten für die Unterbringung der Bücher diskutiert,[33] ohne dass dies in der Praxis große Wirkung gehabt hätte. Schon vorher hatte man mit systemanalytischen Methoden Optimierungsstrategien für den Einsatz der Mittel und der Ausgestaltung der Services entwickelt,[34] die bis zur Erarbeitung von Managementspielen führten, in denen Kauf zusätzlicher Exemplare, Ausleihfristen und die Lesezeiten als Variablen in ihrem Wechselspiel verfolgt werden konnten.[35] Auch hier aber stand im Hintergrund die British Library – nicht zuletzt mit Ihrer Lending Division in Boston Spa –, die gerade erfolgreich ihr Lieferprogramm für Zeitschriftenaufsätze aufgebaut hatte.[36] Die British Library wurde in ihrem Gründungsakt in bewusster Anknüpfung an das von Panizzi erfolgreich umgesetzte Niveau im British Library Act 1972, als „consisting of a comprehensive collection of books, manuscripts, periodicals, films and other recorded matter, whether printed or otherwise“ charakterisiert. In ihrer Vision 2020[37] und dem Strategic Plan 2011–2015[38] werden das Aufgabenfeld auf die digitalen Medien ausgedehnt und die neuen Möglichkeiten (aber auch Notwendigkeiten) intensiver Kooperation bei der Erfüllung der Sammelaufgaben besonders hervorgehoben.
Vergleicht man resümierend die deutsche Entwicklung seit den 70er-Jahren des vorigen Jahrhunderts mit dieser angelsächsischen Diskussion, so lässt sich feststellen, dass in Deutschland als Ergebnis der Wissenschaftsratsempfehlungen, die von der DFG aufgenommen[39] und mit Hilfe der Landesplanungen umgesetzt wurden, eine dem Ansatz nach perfekte Kombination erfolgversprechender Strategien realisiert werden konnte. Die wesentlichen Elemente waren
Mehrfachkäufe vielgebrauchter Literatur in den Lehrbuchsammlungen,
gleichmäßige Auswahl der grundlegenden Forschungsliteratur durch die Fachreferenten und gezielte Doppelung der Studienliteratur in lokaler Abstimmung mit den Fachbereichen sowie schließlich
die gut organisierte umfassende Sammlung von Spezialliteratur durch die Sondersammelgebietsbibliotheken mit der Verpflichtung, sie im Leihverkehr zur Verfügung zu stellen.
In einem Schaubild aus dem Bibliotheksplan Baden Württemberg ist dies graphisch in anschaulicher Weise visualisiert (Abb. 1).[40] Es zeigt, dass auch die vor Ort benötigte sehr spezielle Literatur im lokalen System erworben werden sollte, wenn sie sich auf ein intensiv gepflegtes Forschungsfeld bezog. Es ist aber auch erkennbar, dass auf diese Weise die systematische Sammlung zur gesicherten Abdeckung der relevanten Spezialliteratur nicht erreichbar ist.[41]

Literaturbedarf im zweischichtigen Bibliothekssystem einer Universität
Inzwischen – das sei ergänzend erwähnt – hat vor dem Hintergrund der massiven Digitalisierungen von Google und Hathitrust[42] in den Vereinigten Staaten das Thema der Aussonderung von gedruckten Materialien neue Aktualität gewonnen. Das Ziel der voll digitalen Bibliothek wird mit der Reduktion der Printmaterialen verknüpft, wobei nach den Zeitschriften auch die Monographien ins Blickfeld geraten. „Collective Collections“ von Bibliotheksnetzen sind in der Entwicklung, wobei auch an den Aufbau fachlich gegliederter Sammlungen gedacht wird.[43] Für Deutschland sind durch das Sondersammelgebietsprogramm, das die Verpflichtung zur dauerhaften Speicherung der Spezialbestände einschließt, bereits in der Vergangenheit gute Voraussetzungen geschaffen, hier zu noch effizienteren Lösungen zu kommen.
5 Die strikte Ausrichtung auf die aktuellen Bedürfnisse der Fachcommunities gegen Interdisziplinarität, Latenz und Serendipity
Im Rahmen der Evaluierung des Sondersammelgebietsprogramms wurde auch festgestellt, dass zwei Drittel der befragten Wissenschaftler keine Kenntnis von den Sondersammelgebieten hatten. Göttker vermutet, dass diese Erkenntnis mit ein Grund dafür gewesen sein könnte, dass zukünftig die Beachtung aktueller Bedürfnisse und Nutzerinteressen im jeweiligen Fach oberstes Prinzip sein soll.[44] „Künftig ist allein wesentlich, dass bei der Betreuung eine intensive Auseinandersetzung mit den Bedürfnissen der Fachcommunities erfolgt, um ein passendes Dienstleistungsangebot zu entwickeln. Diese Zielsetzung setzt voraus, dass jeder Fachinformationsdienst einen möglichst eindeutigen – wenn auch nicht exklusiven – Bezug zu bestimmten Fächern oder Fachcommunities aufweist. Ein solcher Bezug war beim ‚Sammelplan‘ des auslaufenden Systems der Sondersammelgebiete nicht in jedem Fall gegeben und auch nicht zwingend. Die Umstrukturierung des Systems bedingt daher eine entsprechende Anpassung der Fachsystematik.“[45] Es ist sicher ein wünschenswertes Ziel, Fachinformation und Fachcommunities in Übereinstimmung zu bringen. Aber es kommt ebenso sicher der Quadratur des Kreises gleich, Fachinformationsdienste an den sich immer wieder wandelnden Zuschnitt der universitären Forschungsrichtungen und Fächerspezifikationen anzupassen. Zu verzahnt sind die Fachgebiete, zu sehr überlappen sich die Interessen und Forschungsobjekte. Darüber hinaus sind viele Fachgebiete „Hilfswissenschaften“ für andere, die im Bestand noch mehr aber in der Erschließung berücksichtigt werden müssen – und oft Interessen haben, die mit den zentralen Forschungsthemen nicht übereinstimmen. Mindestens in den Geisteswissenschaften kann mit Sicherheit gesagt werden, dass ein Prinzip der Beschränkung auf die Erwerbung aktuell in eng definierten Forschercommunities benötigter Literatur kontraproduktiv sein muss. Die Gefahr, dass man Moden unterliegt, z. B. dem schnellen Wechseln kulturwissenschaftlicher Turns[46] nachläuft, wären unvermeidlich. Gerade in den Geisteswissenschaften – aber nicht nur in diesen – muss man davon ausgehen, dass die Fragestellungen der Gegenwart mit an Sicherheit grenzender Wahrscheinlichkeit nicht die Fragen der Zukunft sind. Deshalb brauchen Geisteswissenschaften – um mit Strohschneider zu sprechen – Bibliotheken, die zwar einerseits der Vorratshaltung durch Speicherung für den jetzt schon wohl definierten Zweck zukünftiger Lektüre dienen. Die künftige Gebrauchsform der Bücher ist damit zwar schon antizipiert, aber die Bibliothek speichert, „was mit der Akkumulation von Dingen im Unterschied zum Vorrat erst mit dem Modus der Sammlung institutionalisiert wird: Latenz.“[47] „Sammlungen rechnen gewissermaßen damit, dass es Sachverhalte geben wird, mit denen nicht gerechnet werden kann: also etwa eine neue Einsicht oder Erkenntnis, Beobachtungen oder Erfahrungen, die sich letztlich dem Prinzip der serendipity verdanken“.[48] So bieten die Bibliotheken (wie andere wissenschaftliche Sammlungen) die „Möglichkeit einer späteren Befassung mit anderen Erkenntnisinteressen, anderem Aufmerksamkeitsfokus, anderen Methoden, in anderen Theorierahmen“.[49]
Ein Aspekt der Latenz ist auch die Funktion der Bibliotheken als Speichergedächtnis im Sinne von Aleida Assmann und Jan Assmann. Indem Bibliotheken „kulturelles Wissen aufbewahren, konservieren, erschließen und zirkulieren lassen“,[50] ermöglichen sie den Übergang aus dem kulturellen Gedächtnis in das kommunikative Funktionsgedächtnis. Damit sind ständige Grenzverschiebungen zwischen geschichtlichem Wandel und historischen Erfahrungen möglich.[51] Da Bibliotheken die Möglichkeit der Weitergabe der in Medien akkumulierten Erfahrungen und Erkenntnisse determinieren und organisieren, ist die Kontinuität ihrer Wissens- und Erinnerungsorganisation und ihres Sammelns notwendig.
Strohschneider spricht vom Eigensinn der Bibliothek, der Sammlung und ihrer Gegenstände. „Wollte man sie [...] nur von den aktuell manifesten Gebrauchsfunktionen und Nutzungsinteressen bestimmen, so würde man alsbald beim Gegenteil recht verstandener Nutzerfreundlichkeit anlangen: bei einer reduktionistischen Logik gänzlich von aktueller Nachfrage her induzierter Angebote, welche die Sammlung mit der Vorratshaltung verwechselt“.[52] „Sammeln allein nach dem Maß der Nutzungsfrequenz führt über kurz oder lang dazu, dass in der Sammlung lediglich das noch sich finden lassen wird, was in ihr immer schon gesucht worden ist. Dann lenkt die Sammlung die Aufmerksamkeit gerade ab von dem, was einstweilen erst wenig Aufmerksamkeit fand. Wie die Internet-Suchmaschinen bietet sie als belangvoll dann dar, was viele zuvor bereits für belangvoll hielten. So wird sie zu einem Mechanismus, der zukünftiges Neues gerade unwahrscheinlich macht, und das mag in der Unterhaltungsindustrie für einträglich gehalten werden. In der Forschung ist es entschieden systemwidrig.“[53]
Der Geisteswissenschaftler nutzt Latenz, indem er immer neue Fragestellungen an die Gegenstände und Medien heranträgt. Sie lassen sich – wie Bernhard Fabian ausführt – nicht wie die Hypothese des Naturwissenschaftlers in Versuchen im Labor verifizieren. Sie führen den Forscher vielmehr in einen nicht stringent vorhersehbaren Suchprozess, die er in seinem „Laboratorium“, der Forschungsbibliothek, am empirischen Material überprüfen will. „Sie muss ihn darüber hinaus in die Lage versetzen, eine Fragestellung durch die Primär- und Sekundärliteratur verfolgen zu können, gleichviel wohin der Weg ihn führt.“[54]
Zu gleichen Ergebnissen kommen auch Toms und O’Brien in ihrem Literaturbericht zu den Bedürfnissen der Geisteswissenschaftler bei der Nutzung von Informations- und Kommunikationstechnik.[55] So stellen Palmer und Neumann fest: „Scholars do not just examine one document, but entire collections.“[56] „Unlike other disciplines, humanists do not perform literature searches to identify seminal works. Goal-directed searches [...] are conducted primarily to assess the breadth of existing research rather than target key works.“ und „To an outsider, this research process may seem chaotic and disorderly, but humanists are methodical; by casting a large net, they are able to reassure themselves that their coverage of the field justifies their selection of resources“, stellen Talja and Maula fest.[57]
Will man forschungsadäquate Fachinformationsdienste aufbauen, so scheint notwendig, den Blick über die engen Grenzen der Fachcommunities hinaus auszuweiten. Es bietet sich an, die Forschungsformen zu berücksichtigen, die der Wissenschaftsrat beschrieben hat.[58] Eine derartige Sicht, bei der die Geisteswissenschaften vor allem den „hermeneutisch-interpretierenden Forschungsformen“ zuzuordnen sind, würde helfen, virtuelle Cluster der engeren Kooperation zu schaffen, aber auch einen einheitlichen Kriterienkatalog für die Evaluation zu entwickeln, der eine größere Konsistenz bei der gutachterlichen Begleitung der fachinformationellen Infrastruktur gewährleisten könnte. Methodisch abgesicherte Untersuchungen in einem derartigen Rahmen wären sicher aussagekräftiger, als es die Voten kurzfristiger Begutachtung sein können – sie sollten mindestens ergänzend durchgeführt werden.
6 Die Überführung der Sondersammelgebiete in Fachinformationsdienste – eine erschreckende Zwischenbilanz
Bevor die Rolle der digitalen Medien und Informationsdienste angesprochen wird, soll auf den bisherigen Verlauf der Einführung der Fachinformationsdienste eingegangen werden. Die Überführung der Sondersammelgebiete erfolgt in drei zeitversetzten Gruppen. Dabei hat man versucht, durch die Auswahl nach fachlicher und struktureller Ähnlichkeit, eine vergleichende Begutachtung und notwendige Anpassungen der inhaltlichen Aufteilung in kontrollierten Schritten zu ermöglichen.[59] Als Ergebnis der Gruppe 1 „Sozialwissenschaften und fachlich definierte Sondersammelgebiete der Geisteswissenschaften“ sind 2013 positiv beschieden worden: Kriminologie / UB Tübingen; Kunst(-geschichte) / UB Heidelberg und SLUB Dresden;[60] Medien- u. Kommunikationswissenschaften / UB Leipzig; Internationale und interdisziplinäre Rechtsforschung / SB Berlin; Musik / BSB München. Die Zahl der negativen Voten überwiegt: Bildungsforschung / UB Erlangen; Hochschulwesen / UB HU Berlin; Philosophie / UB Erlangen; Politikwissenschaft / SUB Hamburg; Sozialwissenschaften / USB Köln; Sport / Sport-Hochschule Köln; Theaterwissenschaft / UB Frankfurt/Main; Theologie / Tübingen. Damit ist das System der Fachinformationsdienste als flächendeckende Infrastruktur ernsthaft in Frage gestellt.[61] Auch wenn man annimmt, dass ein Teil der Bibliotheken in einer möglichen zweiten Runde erfolgreicher abschneiden wird, muss man davon ausgehen, dass nur noch ein Flickenteppich von Fachgebieten in der Förderung bleibt, der sicher indirekt die Versorgung auch in der Begutachtung erfolgreicher Fächer beeinträchtigen wird, weil sich viele Forschungsbereiche überschneiden. Allem Anschein nach wurden Anträge positiv beschieden, die ein relativ enges Fachgebiet, wie die Kriminologie, umfassen oder im Antrag eine Auswahl der Literatur bzw. nur einen Ausschnitt der früher zu berücksichtigten Fachthematik als Erwerbungsziel angegeben haben. Das letztere ist z. B. bei dem Sondersammelgebiet Recht der Fall, das jetzt ein FID „Internationale und interdisziplinäre Rechtsforschung“ geworden ist – also Publikationen zum materiellen Recht anderer Länder ausklammert. Die UB Leipzig will im FID Medien- und Kommunikationswissenschaft das Modell der nutzergesteuerten Erwerbung (PDA) verwenden, um eine punktgenaue, bedarfsorientierte Bereitstellung von Publikationen zu gewährleisten, weil der Spitzenforschungsbedarf von Bibliotheken nur eingeschränkt zu antizipieren sei. Fachlich profiliert sollen deshalb für den FID die von autorisierten Mitgliedern der Fachcommunity benötigten Publikationen in der Regel erst auf konkrete Anforderungen hin lizenziert oder erworben werden.[62] Hier geht man davon aus, dass die Materialien in digitaler Form dauerhaft angeboten werden und im Bedarfsfall unmittelbar erworben werden können, weil sie just in time vom Verlag bereitgestellt und dem Nutzer unmittelbar zur Verfügung gestellt werden können. Die Mühen (und Fußangeln) der Ebene sind hier ausgeklammert. Dass sie bestehen, haben die SLUB Dresden und die UB Leipzig inzwischen bei ihren PDA-Verträgen selbst festgestellt: Eine Reihe von bestehenden Verträgen wurde im Juni dieses Jahres nicht fortgesetzt, weil die Verlage kurzfristig massive Preiserhöhungen gefordert hatten.[63] Ob der geplante Aufbau einer angereicherten Rechercheplattform für das Fachgebiet die Forscher zufriedenstellen kann, wenn keine sofortige Zugriffsgarantie gegeben ist, muss die Evaluation in einigen Jahren zeigen. Auf Anhieb erscheint es keineswegs sicher, dass sich das PDA-Prinzip, bei dem man die Kosten einer Einzelbibliothek dadurch zu minimieren sucht, dass man zwar ein möglichst breites Angebot an Titeln[64] erschließt, aber nur erwirbt, was unmittelbar genutzt wird, auf die überregionale Literaturversorgung mit Spezialliteratur übertragen lässt. Hierfür müsste ein FID-Lizenzmodell für E-Books vorliegen, von dem wir aber sicher noch weit entfernt sind. Man muss auch bei den elektronischen Zeitschriften mit erheblichen Einschränkungen der Literaturversorgung rechnen. Ein interdisziplinär forschender Wissenschaftler wird von der derzeit verhandelten FID-Lizenz für elektronische Zeitschriften wenig Nutzen haben. Denn die jeweilige FID-Bibliothek soll im Vorhinein definieren, welcher Personenkreis (z. B. als Mitglieder bestimmter Forschungseinrichtungen) das Recht auf einen Zugriff erhält – hier werden mit nicht geringem Aufwand Hürden für die wissenschaftliche Forschung aufgestellt, die einen gelegentlichen Zugriff im Rahmen interdisziplinärer Forschung oder beim aktuellen Informationsinteresse, z. B. eines Wissenschaftsjournalisten, nicht vorsehen; schon Griebel hat darauf aufmerksam gemacht, dass deshalb „im digitalen Bereich nur noch Spitzenforschung im Sinne sehr eng definierter Zirkel von Wissenschaftlern bedient werden kann.“[65] Diese Einschätzung wird indirekt auch in einer Presseerklärung der DFG bestätigt, in der zunächst, trotz des überwiegend negativen Ergebnisses der Überführung der Sondersammelgebiete in Fachinformationsdienste, das zu einem Wegfall der Unterstützungsmittel für die Erwerbung in vielen Fachgebieten geführt hat, von einer Stärkung des Bibliothekswesens gesprochen wird.[66] Darin wird das Ziel, „maßgeschneiderte Angebote für einzelne Disziplinen (zu) entwickeln, indem sie (die Bibliotheken, Anm. des Verf.) die forschungsrelevanten Materialien und Ressourcen bereitstellen, die über die bibliothekarische Grundversorgung hinausgehen“, noch zusätzlich präzisiert: „Die auf dem jeweiligen Gebiet forschenden Wissenschaftlerinnen und Wissenschaftler (Hervorhebung vom Verf.) in Deutschland sollen auf diese Weise unabhängig vom Ort ihrer Tätigkeit einen möglichst schnellen und direkten Zugriff auf Spezialliteratur und forschungsrelevante Informationen erlangen.“ Ein derartiges Vorgehen kann in Sonderfällen erfolgreich sein. Für die Versorgung der Ostasienwissenschaften – eine durch die Sprachbarrieren relativ klar abgegrenzte Gruppe – ist es gelungen, bei finanzieller Beteiligung der einschlägigen wissenschaftlichen Einrichtungen allen Interessierten nach individueller Anmeldung einen freien Zugang zu den Angeboten zu ermöglichen – auch für Nutzer, die nicht zu den finanziell beteiligten Institutionen gehören. „Die Grenzen zwischen Grund- und Spitzenversorgung sind dabei fließend, da hier de facto die zentrale Literaturversorgung mit auf dem deutschen Markt nicht vertretenen Ressourcen für einen relativ klar definierbaren und lokal eher unterversorgten Nutzerkreis erfolgt.“[67]
Bei den Monographien wird es durch die Ausfälle von Sondersammelgebieten und die Einschränkungen der Erwerbung zu erheblichen Einbrüchen kommen. Dabei hat man den Eindruck, dass sich der Grundsatz des selektiven Bestandsaufbaus in einer gewissen Eigendynamik zu einer sich immer stärker verengenden Sicht entwickelt hat. War bei der Evaluation noch die vollständige Sammlung allgemein positiv bewertet worden, wird bei den Empfehlungen der Experten ein flexibles Vorgehen empfohlen,[68] wenn die Beantragung einer vorsorglichen zukunftsorientierten Erwerbung auf dem ausdrücklichen Votum der Fachcommunity beruht; auch die Richtlinien sahen noch differenzierte bedarfsorientierte Realisierungen aufgrund der Voten der Fachcommunities vor,[69] während sich dann in der Umsetzung eine Art Dogma der selektiven Erwerbung durchgesetzt zu haben scheint. Dies ist jedenfalls Rolf Griebels Erfahrung: Für die Musikwissenschaft wurde ein selektiver Bestandsaufbau trotz positiver Begutachtung gefordert und durch eine erhebliche Reduktion der Bewilligungssumme praktisch erzwungen, obwohl der Antrag auf vorsorgliche Erwerbung aufgrund des ausdrücklichen Votums der Fachcommunity gestellt worden war.[70] Von Wiederholungsanträgen erfährt man unter der Hand, dass in ihnen gegen besseres Wissen nur noch eine Erwerbung in Auswahl beantragt wird. Hier werden die Möglichkeiten gegenwärtiger und die Chancen zukünftiger Forschung reduziert.
Für die Deutsche Forschungsgemeinschaft, die unter der Antragsflut leidet, weil Drittmittel zu einer Art „sekundären Währung“ (Strohschneider) geworden sind,[71] kommt die Verminderung der Ausgaben für die Literaturversorgung vielleicht nicht ganz ungelegen. Dass auch mancher Gutachter die potentielle Konkurrenz der Bibliotheksaufwendungen für die Forschungsförderung gesehen haben mag, ist nicht völlig auszuschließen. In Abwandlung einer auf die Universität bezogenen Aussage Strohschneiders[72] könnte man sagen: Wie kann die DFG nicht abwehrend reagieren, wenn sie im Zeitalter der Drittmittelfinanzierung eine Daueraufgabe wie die (allerdings nur ergänzende) Finanzierung der Literaturversorgung hat. Kümmel und Strohschneider ist deshalb zuzustimmen, dass „die DFG-Förderung weder dazu dienen (kann), den dauerhaften Betrieb von Infrastrukturen zu finanzieren, noch dazu, etwa die Unterfinanzierung wissenschaftlicher Einrichtungen zu finanzieren“.[73] Von daher gesehen sollte man die Vorstellung korrigieren, dass man mit dem Umstellungsprozess auf die Fachinformationsdienste eine nachhaltige Infrastruktur aufbauen könne, die sowohl den Bedarf an Literatur wie die darauf aufsetzenden Informationssysteme befriedigt. Mit Recht halten Kümmel und Strohschneider es für notwendig zu überprüfen, ob mit dem Instrument der „qualitätsorientierten Zusatzfinanzierung“ über Projektmittel das Ziel der „gezielten Verbesserung der fachspezifisch ausgerichteten Informationsversorgung erreicht“ werden kann.[74] Dies soll aber erst in einigen Jahren geschehen.
Die Initiatoren der Umstellung haben sicher nicht mit dem hohen Prozentsatz der Ablehnungen der Anträge gerechnet; die meist bibliothekarisch nicht erfahrenen Gutachter haben andererseits die Folgen und Nebeneffekte negativer Voten wohl kaum übersehen können.[75] Es ließe sich natürlich über die negativen Ergebnisse mit der Einstellung hinweggehen, die Bibliotheken hätten bessere Anträge stellen sollen. Dabei bleibt aber nicht nur zu bedenken, dass bei Ablehnung eines Forschungsantrags nur der jeweilige Antragsteller davon betroffen ist, bei der Nichtbewilligung der Förderung der Literaturerwerbung eines bisherigen Sondersammelgebietes aber in kurzer Frist wegen der Mittelknappheit bei allen (ehemaligen) SSG-Bibliotheken der Literaturzugang auf das Normalmaß einer wissenschaftlichen Bibliothek zurückgefahren werden muss. Das bedeutet eine Reduktion um mindestens ein Drittel der Erwerbungen. Bei den Monographien ist dies z. B. bei der UB Erlangen geschehen, die darüber hinaus rund 2 000 Zeitschriftenabonnements aufgeben musste.[76] Da diese 2013 im Voraus für 2014 bezahlt worden sind, wird sich das allerdings erst ab 2015 wirklich bemerkbar machen. Wenn Bibliotheken mit größeren oder mehreren Sondersammelgebieten mehrere Hundert Zeitschriften schon bei einem einzelnen Großverlag abbestellen, muss mit Dominoeffekten gerechnet werden, die das gut geknüpfte aber dünne Netz der regionalen und nationalen Literaturversorgung zerreißen können, mit dem bisher trotz knapper Mittel eine so gute Literaturversorgung flächendeckend gesichert werden konnte. Insbesondere Konsortialverträge aber auch Allianzlizenzen, die im letzten Jahrzehnt eine wesentliche Grundlage der Verbesserung des Zugriffs auf digitale Zeitschriften auf breiter Basis gebracht haben, sind in hohem Maße gefährdet. Man darf sich nicht mit der Aussage zu beruhigen versuchen, dass es in einer Zeit der Umstellung immer Schwierigkeiten gebe. Die sich abzeichnenden Kollateralschäden können so gravierend werden, dass man unbedingt kurzfristig Gelder bereitstellen sollte, um sie zu vermeiden.
Es ist vorgesehen, Mittel, die durch die Ablehnung von Anträgen frei geworden sind, weiter für den FID-Bereich zu verwenden. Daneben sind Fördermittel in Höhe von bis 15 Mio. € pro Jahr für die Weiterentwicklung zu den Fachinformationsdiensten und weiteren Begleitmaßnahmen eingeplant.[77] Vielleicht lässt sich mit dieser Finanzausstattung ein Kompromiss realisieren. Ein möglicher Schritt dazu wäre, im weiteren Verfahren die Vergabe von Erwerbungsmitteln von den Zuweisungen für die Informationsdienste im engeren Sinn für einen Zeitraum von 3–5 Jahren zu trennen. Dann könnten die erfolgreichen FID-Projekte mit ihrer reduzierten Erwerbungsstrategie evaluiert sein; außerdem ließen sich methodisch abgesicherte Untersuchungen des Informationsbedarfs einzelner Forschungsbereiche durchführen. Eine so wichtige Frage wie die dauerhafte Entwicklung der Informationsversorgung verdient sicher ein derartig abgesichertes Vorgehen. Möglicherweise könnte es bis dahin gelungen sein, andere Finanzierungswege für die große Aufgabe der Informationsversorgung im digitalen Zeitalter zu finden, wie dies von Kümmel und Strohschneider schon angedeutet wird.[78]
7 Die Förderung des konsequenten Wandels zur digitalen Bibliothek – e-only, komfortable Nachweis- und Recherchesysteme und die Entwicklung neuer Informationsdienstleistungen
Die konsequente Hinwendung zur digitalen Informationsversorgung ist zweifellos der wichtigste und zukunftsträchtigste Teil der Neugestaltung des Systems der Informationsinfrastruktur, die im Rahmen des Übergangs zu Fachinformationsdiensten vorangetrieben wird. Durch die Betonung des e-only-Prinzips ist sie Anlass zu Missverständnissen, nicht zuletzt beim Börsenverein des Deutschen Buchhandels, geworden, die der Präsident der DFG, Peter Strohschneider, aber glätten konnte.[79] Es sollte ja inzwischen Allgemeingut sein, dass auch gedruckte Medien (nur) eine Ausgabeform digitaler Dokumente sind. Dabei haben Bücher Eigenschaften, die sie in bestimmten Rezeptionssituationen – etwa beim intensiven Lesen längerer Texte – als bevorzugtes Medium erscheinen lassen, obwohl die rasante Entwicklung der E-Book-Reader und der Tablets immer mehr Menschen dazu bringt, (auch) elektronische Medien mit Genuss zu lesen. Das ändert nichts daran, dass das gedruckte Buch als Medium sicher noch lange erhalten bleibt. Für die wissenschaftliche Forschung aber – und das ist sicher das wichtigste Argument für eine Bevorzugung elektronischer Medien – ist deren flexible Verwendbarkeit entscheidend, die ihre Integration in den wissenschaftlichen Arbeitsprozess wesentlich begünstigt.[80] Solange nur gedruckte Materialien vorliegen, ist aber vorgesehen, dass diese auch erworben werden können – wenn dies in der praktischen Umsetzung auch beachtet wird, was sich insbesondere bei den regionalen Sondersammelgebieten, die in der nächsten Runde evaluiert werden, wird erweisen müssen.
Es ist ein sehr wichtiger Teil der digitalen Transformation, dass die Bücher aus dem Druckzeitalter (zusätzlich) in digitale Dokumente umgewandelt werden. Der „Comité des Sages“ sieht in der Digitalisierung die Chance einer neuen Renaissance.[81] Trotz der vielfachen Aktivitäten sind wir von Vollständigkeit bei der Retrodigitalisierung aber noch weit entfernt. Schätzungen, dass bis 2020 100 Millionen Bücher digitalisiert sein können, erscheinen aber durchaus realistisch.[82] Allerdings bedarf es zusätzlicher Anstrengungen, sie durch OCR-Erfassung und weitere Hilfsmittel so nutzbar zu machen, dass sie wie digitale Publikationen leicht durchsucht, kontextualisiert, präzise verlinkt und damit adäquat in den kontinuierlichen Transformationsprozess auch geisteswissenschaftlicher Forschung integriert werden können, für die dann die Möglichkeit besteht, neue Methoden und Werkzeuge wie das Data Mining auszuschöpfen und weiterzuentwickeln.[83] Auf diese Weise kann erreicht werden, was Kevin Kelly schon 2006 beschrieb: „In the universal library, no book will be an island“. Das Scannen ist dazu nur ein erster Schritt; die Textdigitalisierung führt – um noch einmal Kelly zu zitieren – wesentlich weiter: „The real magic will come in the second act, as each word in each book is cross-linked, clustered, cited, extracted, indexed, analyzed, annotated, remixed, reassembled and woven deeper into the culture than ever before.“[84] Dabei sollte man sich aber auch bewusst machen, dass die gedruckten Publikationen in ihrer Gesamtheit längst quantitativ von den digitalen Dokumenten marginalisiert werden – und das nicht nur in den Naturwissenschaften.[85]
Der Aufbau von Sammlungen gedruckter oder digitaler Dokumente wird oft durch den Gegensatz einer Bereitstellung just in case oder just in time charakterisiert. Zweifellos musste der Aufbau von Sammlungen gedruckter Literatur vom Publikationsprinzip ausgehen und – schon wegen der Gefahr, dass Veröffentlichungen schnell nicht mehr lieferbar sein konnten – relativ kurzfristig nach dem Erscheinen erfolgen, um ein Werk dauerhaft für den Fall der Nutzung zur Verfügung stellen zu können. Digitale Dokumente scheinen wegen ihrer Ubiquität, eine reine just-in-time-Bereitstellung zu ermöglichen. Doch ist der Grad ihrer Zugänglichkeit sehr unterschiedlich. Aus der Sicht des Einzelnen gibt es neben den Dokumenten (im weiteren Sinn bis hin z. B. zu digitalen Fotos), die er selbst hergestellt oder erworben und gespeichert hat, Dokumente, die er über die Zugehörigkeit zu einer Universität oder als Leser einer öffentlichen Bibliothek nutzen kann. Schließlich greift er auf den weiten Raum des Internet zu, das über Hilfsmittel wie Suchmaschinen erschlossen wird. Auch aus Sicht einer Bibliothek gibt es einen Kern-, einen Nah- und einen Fernbereich. Die Komplexität der Daten und die Modalitäten ihrer Bereitstellung sind aber für sie erheblich größer und differenzierter. Im Nahbereich – den vor Ort erstellten Daten – sind neben elektronischen Publikationen Forschungsdaten unterschiedlichster Art von Messdaten über Texte zu Digitalisaten von Kunstobjekten usw. zu berücksichtigen. Sie zu speichern, standardgerecht zu erschließen und mindestens das Management ihrer langfristigen Zugänglichkeit zu übernehmen, sind Aufgaben, die auf Dauer alle Bibliotheken vor Ort erfüllen müssen, auch wenn sie dafür evtl. nationale Hosting- oder die Langzeitarchivierungsdienste nutzen.[86] Diese „kleinen Sammlungen“[87] (Lewis nennt sie „curated collections“) bei den Bibliotheken können auf Dauer quantitativ den größten Teil der vor Ort gespeicherten Daten ausmachen.[88] Sie werden in der Regel als Open-Access-Dokumente zur Verfügung gestellt. Dem gezielten Ausbau dieser Sammlungen wird deshalb – wie in Deutschland, wo der Akzent allerdings derzeit auf den Forschungsdaten liegt – in den amerikanischen Bibliotheken zunehmend Aufmerksamkeit gewidmet.[89]
Bei den elektronischen Publikationen kommerzieller Verlage besteht die Funktion der Bibliothek, wie bei den gedruckten Büchern und Zeitschriften, in der Dekommodifizierung: Die wissenschaftlichen Forschungsergebnisse, die als Publikationen durch den kommerziellen Verleger zur Ware wurden, werden durch Kauf oder Lizensierung von der Bibliothek wieder zu frei zugänglichem gemeinem Gut.[90] Bei gedruckten Büchern konnte es durch Ausleihe, oder bei Zeitschriftenaufsätzen durch Kopien (die mit Urheberrechtsabgaben belastet waren), auch über den engeren Kreis der Nutzer einer Bibliothek hinaus zugänglich gemacht werden – im verschärften digitalen Urheberrecht hängen diese Möglichkeiten von einer Lizenz des Verlegers ab. Die Bibliotheken haben durch den Zusammenschluss zu Konsortien ihre Marktmacht verbessert und durch in der Regel geringe Zusatzkosten erreicht, dass alle Konsortialteilnehmer Zugang zu allen Daten haben, die im Konsortium von mindestens einer Einrichtung lizensiert werden. Die Problematik überregionaler Lizenzen ergibt sich daraus, dass das „Einzugsgebiet“ einer nationalen Lizenz nicht mit dem komplexen Flickenteppich konsortialer Zusammenschlüsse in Übereinstimmung zu bringen ist. Für die Verleger stellt demgegenüber jede nationale Lizenz ohne konsortiale Absicherung ein finanzielles Risiko dar. Deshalb kommt es zu den schon angesprochenen starren Definitionen von Forschern oder Forschergruppen, die das Instrument der FID-Lizenz für einen größeren potentiellen Benutzerkreis als Instrument überregionaler Literaturbereitstellung entwerten. Hier müssten z. B. zusätzliche nutzungsabhängige Kriterien gefunden werden, um dieses Dilemma zu überwinden. Die weitergehende Lösung nationaler Konsortien sind ein vielleicht schwieriges aber nicht unrealisierbares Unterfangen, wenn hier Finanzierungsmodelle auf der Ebene von Bund-Länderabsprachen verhandelt werden können, um die Bündelung der Finanzquellen zu erreichen, die schon die KII- Empfehlungen als Voraussetzung einer nachhaltigen Versorgung mit kommerziellen Verlagsprodukten bei den e-Zeitschriften vorschlagen.[91]
Eine anderer ebenfalls in den KII-Empfehlungen akzentuierter Lösungsansatz für den kostenfreien Zugang zur Forschungsliteratur ist die konsequente Umstellung auf Open-Access-Bereitstellung.[92] Sie kann in Zusammenarbeit mit Verlagen erfolgen, soweit diese für den goldenen Weg nicht unzumutbare Finanzbeiträge fordern. Es erscheint nur auf den ersten Blick unmöglich, hierfür Gelder aus den Literaturetats der Bibliotheken zur Verfügung zu stellen, denn seit Langem finanzieren die Bibliotheken durch die vorab bezahlten Abonnements oder heute der Lizenzen die Publikation der wissenschaftlichen Zeitschriften. SCOAP 3 ist es erstmals gelungen, für eine Fachcommunity das Open-Access-Modell zu verwirklichen.[93] Für Monographien hat „Knowledge unlatched“ ein erstes Set von Open-Access-Titeln durch Finanzierung der Bibliotheken veröffentlicht.[94]
Die Bereitstellung von Literatur in Open Access wird sich auf die Dauer sicher durchsetzen, weil kein Wissenschaftler auf den verlinkten Zugriff zu seiner Publikation verzichten will.[95] Deshalb sollte jedem Forscher an seiner Heimateinrichtung wie in fachlichen Repositorien den FID-Bibliotheken ein kostenfreier Veröffentlichungsservice offen stehen, der neben der dauerhaften Zugänglichkeit auch für weltweite Sichtbarkeit sorgt. Diesem „curated content“, der auch Forschungsdaten umfasst, geben die Bibliotheken Dauerhaftigkeit. Er wird – wie schon angesprochen – einen schnell wachsenden Anteil an den digitalen Sammlungen der Bibliotheken bilden.[96] Letztlich sollten diese Dienstleistungen zu Systemen führen, mit denen der gesamte Arbeitsablauf des Wissenschaftlers vom Sammeln seiner Daten über ihre Auswertung zur Vorbereitung der Publikation, ihrer Durchführung und der Langfristarchivierung führen[97] – auf diese Weise kann die Vision der Einheit von Bibliothek und Forschung (Bibliothek wird Forschung, Forschung wird Bibliothek) realisiert werden.[98] Durch die Ergänzung mit fachspezifischen Bearbeitungstools entstehen virtuelle Forschungsumgebungen für einzelne Communities,[99] die auch von FIDs betreut werden können.
Die Sammlungsaufgabe einer FID-Bibliothek sollte aber noch nicht damit abgeschlossen werden, dass sie in Ergänzung der Aktivitäten der lokalen Einrichtungen den Zugang zu Veröffentlichungen kommerzieller Verlage sichert und eine fachliche Plattform für die Speicherung und Publikation von Forschungsdaten und Forschungsergebnissen bereithält. Sie sollte auch aus dem Fernraum des Internets Materialien bereitstellen, die von besonderer fachlicher Relevanz sind – also eine „große Sammlung“ aufbauen[100]; die ZBW nutzt dazu z. B. ihre im Rahmen von Academic LinkShare erfassten Daten.[101] Sie reihen sich damit ein in den internationalen Kreis der Archivierungsaktivitäten, insbesondere der Nationalbibliotheken, die sich den Herausforderungen des Internet stellen.[102] Auch große Bibliotheken wie die Library of Congress oder die British Library setzen dabei auf Kooperation, in der Erkenntnis, dass sie die Datenmengen allein nicht bewältigen können.[103] Im Zeitalter verteilter Speicherung können dabei – gerade wenn es um die Sicherung wichtiger Daten aus dem Internet in fachgerechter Auswahl geht – auch spezialisierte Partner einbezogen werden, wie dies z. B. das Digital Archive for Chinese Studies (DACHS) des Instituts für Sinologie der Universität Heidelberg zeigt.[104] Darüber hinaus sollten die Wissenschaftler besonders auf die Auswahl der zu archivierenden Materialien Einfluss erhalten.
Der Erfolg der Dienstleistungen der Fachinformationsdienste, die von der DFG erwartet werden, hängt vor allem davon ab, wie sehr es den Bibliotheken gelingt, die Forscher der von ihnen betreuten Fächer durch die Entwicklung attraktiver Informationsdienstleistungen an sich zu binden.[105] Hier ist der enge Kontakt mit der Fachcommunity von besonderer Bedeutung. Vom Spektrum an Möglichkeiten gibt Heft 1 (2014) dieser Zeitschrift mit dem Schwerpunkt Fachportale einen Eindruck.[106] Dabei ist ein klarer Trend zu erkennen, die Fachrepositorien zu fachlich fokussierten Forschungsinformationssystemen auszubauen. Hier seien einige Beispiele herausgegriffen. Die innovativen Lösungen für die überregionale Bereitstellung lizenzpflichtiger Materialien bei CrossAsia wurde schon erwähnt.[107] Mit dem Ziel, zur Mehrung auch der wissenschaftlichen Reputation ihrer Nutzer beizutragen, wird die Verbindung mit den Forschungsinformationssystemen der Hochschulen angestrebt.[108] Die TIB plant Community-Dienste im Rahmen des Open Science Lab zu entwickeln und die „spezifischen Fachbedarfe in einem künftigen übergreifenden Portal zu integrieren und diese dann als maßgeschneiderte Dienste für die einzelnen als FID betreuten Fächer transparent zu machen.“[109] Bei EconBiz soll in Zukunft nicht mehr das Portal, sondern der Service im Vordergrund stehen: Inhalte werden dort zur Verfügung gestellt, „wo gerade gesucht wird: mobil, international, im Social Web oder in populären Suchmaschinen“ und sind damit geeignet, in die persönlichen und fach- oder objektspezifischen Forschungsumgebungen der Wissenschaftler integriert zu werden.[110]
Einen wichtigen Schwerpunkt bildet das Angebot offener bibliographischer Daten: Texte können für das semantische Navigieren aufbereitet werden, die Forschungsinformationssysteme auf der Basis von RDF und Linked Open Data aufgebaut werden.[111] In Tripeln werden die Beziehungen von Ideen, Personen, Orten, Dingen, Ereignissen, Epochen usw. unter Zuhilfenahme von Ontologien so dargestellt, dass eine maschinelle Weiterverarbeitung möglich ist.[112] Die Bibliotheken werden ihren Anteil daran haben, die in den Büchern, Dokumenten und Datensilos verborgenen Informationen durch entsprechende Metadaten zu erschließen, sie mit bereits existierenden Daten zu verlinken und um zusätzliche Informationen ergänzen.[113] Die Serendipität, die Möglichkeit beim Suchen Relevantes zu finden, das man nicht gesucht hat, die Strohschneider als wesentliche Wirkung der Sacherschließung in Bibliotheken hervorhebt, kann so auf digitale Dokumente in der „semantic cloud“ übertragen werden.[114] Die Bibliotheken nutzen damit die neuen Möglichkeiten der digitalen Publikationen, die zu „liquid books“ werden, die nicht nur miteinander verlinkt, sondern interoperabel werden.[115] Es sind dynamische Dokumente („energized documents“ wie Hazen sie nennt)[116] – aber sie müssen auch „self describing documents“ werden. Linked Open Data öffnen den Weg in den „global dataspace“.[117] In standardisierten Formaten mit dauerhafter Adressierung, mit standardisierten Metadaten in offenen Formaten und der Verknüpfung mit Ontologien sorgen sie dafür, dass der Datenstrom – egal wo man die Forschungsreise beginnt – zu neuen Erkenntnissen hinführt und nicht zum Strudel wird, in dem diese verloren gehen oder die Fahrt an Klippen scheitert, weil fehlende Verknüpfungen sie hemmen.
International haben die Bibliotheken eine führende Rolle als stabile Leuchttürme im Meer des digitalen Wissens übernommen. Als Vorreiter des Semantic Web stellt z. B. die Deutsche Nationalbibliothek ihre Daten weitgehend als Linked Data mit dem Ziel zur Verfügung, auf diese Weise einen entscheidenden Beitrag zur Stabilität und Zuverlässigkeit der „Linked-Data-Cloud“ zu leisten[118] – und Wissenschaftler beginnen, diese Angebote anzunehmen.[119] Die Bibliothèque nationale de France erschließt die großen französischen Autoren und ihre Werke semantisch.[120] Europeana hat ein Datenmodell für die semantische Erschließung der Digitalisate vorgelegt.[121] Die Bibliotheken erfinden sich neu in der digitalen Welt des Internet – und der Impetus der Deutschen Forschungsgemeinschaft, sie dabei im Rahmen der Förderung der Fachinformationsdienste zu unterstützen, kommt genau zum richtigen Zeitpunkt.
8 Die Zukunftssicherung Informationsinfrastruktur für die Forschung als Gemeinschaftsaufgabe
Zusammenfassend kann man feststellen, dass die Grundidee der Umstellung auf die Fachinformationsdienste, die bibliothekarische Infrastruktur der Informationsversorgung auf digitale Daten, Dokumente und Publikationen auszurichten und dabei einen besonders starken Akzent auf den Aufbau und die Pflege komfortabler Nachweisinstrumente und das vorausschauende Engagement in die Entwicklung allgemeiner und fachspezifischer Informationsdienstleistungen zu legen, zukunftsweisend, ja für Deutschland vielleicht ein großer Wurf ist. Von daher ist die Zustimmung, die sie z. B. im Beitrag von Petra Hätscher und Marie Elisabeth Müller in diesem Heft oder bei Bürger und Depping findet, gut verständlich.[122]
Die Erwartung, dass die bestehenden Strukturen an ihre finanziellen und organisatorischen Grenzen gelangen, wenn künftig elektronische Medien in weit größerem Umfang integriert werden müssen,[123] hat vielleicht dazu beigetragen, dass Schritt für Schritt aus einer positiven Bewertung der vorsorgenden Erwerbung, mit dem Ziel der relativen Vollständigkeit in der Umsetzung, fast ein Dogma des selektiven Bestandsaufbaus geworden ist, der sich am aktuellen Bedarf orientieren soll. Das mag für die experimentellen Naturwissenschaften mit ihren relativ eindeutigen Forschungshypothesen, die es zu evaluieren gilt, zu rechtfertigen sein, obwohl auch hier bei größeren Veröffentlichungen ein möglichst umfassender Literaturbericht zur Thematik erwartet wird; der geisteswissenschaftliche Forschungsprozess ist demgegenüber weniger definierbar und führt zu nicht vorhersehbarem Literaturbedarf, der sich auf einen möglichst umfassenden Bestand stützen muss. Ist so der Grundansatz bei der Literaturauswahl schon problematisch, so hat die Kombination der Begutachtung der Konzeption für die Informationsservices und der Literaturerwerbung dazu geführt, dass für teilweise große Fachgebiete die systematische Erwerbung der Spitzenliteratur in Deutschland eingestellt wird. Für die Wissenschaft in Deutschland muss ernsthaft befürchtet werden, dass auf längere Sicht wichtige Quellen ihrer Leistungsfähigkeit und Kreativität – mindestens bei den Geisteswissenschaften – versiegen.
Wenn tausende Zeitschriften abbestellt und Bücher nicht mehr erworben werden, erschwert das nicht nur die fachliche, sondern vielleicht noch mehr die interdisziplinäre Forschung; im Dominoeffekt hat es auch weitreichende Auswirkungen auf Konsortien für die Lizenzierung elektronischer Zeitschriften und gemeinschaftlich organisierter Allianzlizenzen. Das fein gewebte, aber wegen der Mittelknappheit auch dünne Netz der überregionalen Literaturversorgung kann reißen. Hier müssen unbedingt kurzfristig Hilfen gefunden werden. Das Verfahren der Umstellung auf die Fachinformationsdienste sollte überprüft, modifiziert und vielleicht auch zeitlich gedehnt werden.
Will man die Herausforderungen des digitalen Zeitalters annehmen und erfolgreich bewältigen, ist dies eine Infrastrukturaufgabe, die sicher nicht allein auf den Schultern der Deutschen Forschungsgemeinschaft ruhen kann. Sie ist darauf ausgerichtet, im Informationsbereich innovative Pilot- und Modellvorhaben zu fördern und den Aufbau überregionaler Strukturen zu initiieren.[124] Das ist im Bereich der digitalen Dienste von großer Bedeutung. Doch können sich daraus ergebende Daueraufgaben nicht im Rahmen von Projekten bewältigt werden, wie die Entwicklung der digitalen Fachbibliotheken gezeigt hat.
Der Rat für Informationsstrukturen wird im Herbst 2014 seine konstituierende Sitzung haben.[125] Er wird Wissenschaft und Politik in Fragen der Weiterentwicklung der Informationsinfrastrukturen beraten.
Dazu gehören die Entwicklungsfelder des KII-Gesamtkonzeptes. Mit Lizenzen, Langzeitarchivierung, Nichttextuellen Materialien, Retrodigitalisierung / Kulturelles Erbe aber auch mit Open Access und Forschungsdaten sind wichtige sammlungsrelevante Handlungsfelder angesprochen, die für eine Planung der zukünftigen Informationsversorgung der wissenschaftlichen Forschung erweitert und zusammengefasst werden müssten. Dabei sollte auch der Vorschlag von Kümmel und Strohschneider geprüft werden, dass „das System der Fachinformationsdienste als ‚Hilfseinrichtung der Forschung‘ einen anderen Stellenwert in der Fördersystematik erhält – der Förderung anderer zentraler Infrastrukturen vergleichbar, beispielsweise der Forschungsschiffe“.[126] Die angestrebte Grundgesetzänderung zur Verbesserung der Kooperation von Bund und Ländern in der Wissenschaft, für die vom BMBF gerade ein Entwurf vorgelegt wurde,[127] sollte auch den gesetzlichen Rahmen für ein Einbinden der Universitäten in dieses System bieten, deren Bibliotheken in der Vergangenheit einen so wesentlichen Teil der Informationsinfrastruktur getragen haben. Das erleichtert auch die „möglichst enge Abstimmung und Zusammenarbeit aller beteiligten Einrichtungen, ihrer Trägerinstitutionen und anderer Förderorganisationen“, die Kümmel und Strohschneider für notwendig halten, um „das übergeordnete Förderziel“ zu erreichen, dass die Informationseinrichtungen „wissenschaftlichen Nutzerinnen und Nutzern einen freien und umfassenden Zugang zu wissenschaftlich relevanten Informationen ermöglichen“, bei dessen Umsetzung die DFG nur „eine mit gestaltende Rolle“ einnehmen kann.[128]
Die Sicherung der Information für die Forschung auf breiter Basis ist auch ein Beitrag zur informationellen Souveränität unseres Landes, das sich nicht auf Informationsdienstleister verlassen kann und darf, die insbesondere kommerzielle, möglicherweise aber auch darüber hinausgehende Interessen bzw. Interessenten haben. Die Bibliotheken als Garanten neutraler Information konnten durch das kooperative Sammelschwerpunktsystem bisher gewährleisten, dass man in Deutschland mit an Sicherheit grenzender Wahrscheinlichkeit damit rechnen konnte, jede forschungsrelevante Publikation als Wissenschaftler aber auch als Interessierter zu erhalten. Die Bibliotheken müssen alles dafür tun, den globalen bibliothekarischen Kultur-Code der Nachhaltigkeit der Informationsversorgung im digitalen Zeitalter in Deutschland aufrecht zu erhalten.[129] Deshalb sollten auch die Bibliotheksverbände – einer Forderung auch von Hätscher und Müller entsprechend[130] – Vorschläge für die erfolgreiche Weiterentwicklung der Informationsinfrastruktur vorlegen und sich dafür einsetzen, sie im politischen Raum durchzusetzen. Auch in Zukunft muss es heißen „In libraries we trust“.[131] Flüchtige Medien brauchen stabile Institutionen – eine nachhaltige Informationsinfrastruktur war noch nie so nötig wie jetzt!
© 2014 Walter de Gruyter GmbH, Berlin/München/Boston
This work is licensed under the Creative Commons Attribution-NonCommercial-NoDerivatives 3.0 License.
Artikel in diesem Heft
- Titelseiten
- Titelseiten
- Inhaltsfahne
- Schwerpunkt Informationsinfrastruktur für die Forschung. Vom Sondersammelgebiet zum Fachinformationsdienst
- Editorial
- Nachhaltige Infrastruktur für die Literatur- und Informationsversorgung: im digitalen Zeitalter ein überholtes Paradigma – oder so wichtig wie noch nie?
- Bibliotheken ohne Bestand?
- Das Ende der Sondersammelgebiete – Ende einer Infrastruktur
- Warum sich die SULB Saarbrücken nicht als FID bewirbt
- Fachinformationsdienste für die Wissenschaft – mehr als nur eine Umbenennung der Sondersammelgebiete
- Digitale Sammlungen – Vision eines Neubeginns
- Zukunftsgestalter in Bibliotheken 2014
- Editorial
- „Verbindende Schritte in eine digitale Zukunft.“ – Ein „All-in-One“-Projekt zur Learning- & Supporting-Library für praktizierende Lehrpersonen
- Zukunftsgestalter in Bibliotheken 2014 – Kurzberichte
- Individualisierte QR-Codes zur Verknüpfung von Print- und E-Bestand
- „Medien-Elternabend“: Stadtbibliothek Mannheim macht Mütter und Väter stark für die Medienerziehung ihrer Kinder
- Zukunftsgestalter: Die Vermittlung von Informationskompetenz im Ausland
- David gegen Goliath – Digitalisierung in Regionalbibliotheken
- Die Implementierung eines institutionellen Repository plus „all-inclusive“ Dienstleistungspaket
- Weitere Beiträge
- Linked Open Data – Wie das Web zur Semantik kam
- Gedenkjahr 2014 – ein Auftrag an Gedächtnisinstitutionen
- Die Geschichte der Privatbibliothek Kaiser Franz’ I. von Österreich 1784–1835
- Barrierefreiheit der Stuttgarter Bibliotheken
- Forschungsunterstützung an australischen Universitätsbibliotheken
- Für die Praxis
- Wer fragt was und wann? – Eine qualitative Auswertung der Nutzung digitaler Auskunftsangebote von Hochschulbibliotheken am Beispiel der DigiAuskunft
- Dokumente
- Die Bibliothek als Werkstatt der Wissenschaft
- Bibliographische Übersichten
- Zeitungen in Bibliotheken
- Rezensionen
- Rezensionen
- Informationen
- Gemeinsame Wissenschaftskonferenz
- Jahresinhaltsverzeichnis 2014
Artikel in diesem Heft
- Titelseiten
- Titelseiten
- Inhaltsfahne
- Schwerpunkt Informationsinfrastruktur für die Forschung. Vom Sondersammelgebiet zum Fachinformationsdienst
- Editorial
- Nachhaltige Infrastruktur für die Literatur- und Informationsversorgung: im digitalen Zeitalter ein überholtes Paradigma – oder so wichtig wie noch nie?
- Bibliotheken ohne Bestand?
- Das Ende der Sondersammelgebiete – Ende einer Infrastruktur
- Warum sich die SULB Saarbrücken nicht als FID bewirbt
- Fachinformationsdienste für die Wissenschaft – mehr als nur eine Umbenennung der Sondersammelgebiete
- Digitale Sammlungen – Vision eines Neubeginns
- Zukunftsgestalter in Bibliotheken 2014
- Editorial
- „Verbindende Schritte in eine digitale Zukunft.“ – Ein „All-in-One“-Projekt zur Learning- & Supporting-Library für praktizierende Lehrpersonen
- Zukunftsgestalter in Bibliotheken 2014 – Kurzberichte
- Individualisierte QR-Codes zur Verknüpfung von Print- und E-Bestand
- „Medien-Elternabend“: Stadtbibliothek Mannheim macht Mütter und Väter stark für die Medienerziehung ihrer Kinder
- Zukunftsgestalter: Die Vermittlung von Informationskompetenz im Ausland
- David gegen Goliath – Digitalisierung in Regionalbibliotheken
- Die Implementierung eines institutionellen Repository plus „all-inclusive“ Dienstleistungspaket
- Weitere Beiträge
- Linked Open Data – Wie das Web zur Semantik kam
- Gedenkjahr 2014 – ein Auftrag an Gedächtnisinstitutionen
- Die Geschichte der Privatbibliothek Kaiser Franz’ I. von Österreich 1784–1835
- Barrierefreiheit der Stuttgarter Bibliotheken
- Forschungsunterstützung an australischen Universitätsbibliotheken
- Für die Praxis
- Wer fragt was und wann? – Eine qualitative Auswertung der Nutzung digitaler Auskunftsangebote von Hochschulbibliotheken am Beispiel der DigiAuskunft
- Dokumente
- Die Bibliothek als Werkstatt der Wissenschaft
- Bibliographische Übersichten
- Zeitungen in Bibliotheken
- Rezensionen
- Rezensionen
- Informationen
- Gemeinsame Wissenschaftskonferenz
- Jahresinhaltsverzeichnis 2014