Startseite Akademische Textverarbeitung
Artikel Open Access

Akademische Textverarbeitung

Digitale Literalität und offene Formate in Bibliotheken
  • Mirco Limpinsel-Pesavento

    Mirco Limpinsel-Pesavento

    ORCID logo EMAIL logo
Veröffentlicht/Copyright: 13. August 2025
Veröffentlichen auch Sie bei De Gruyter Brill

Zusammenfassung

Der Beitrag plädiert dafür, digitale Textverarbeitung als Teil moderner Informationskompetenz in wissenschaftlichen Bibliotheken zu verankern. Im Fokus stehen offene Formate, strukturierte Schreibpraktiken und typografisches Wissen als Basis digitaler Wissenschaft

Abstract

This paper argues for integrating digital text processing into modern information literacy in academic libraries. It focuses on open formats, structured writing practices, and typographic knowledge as foundations of digital scholarship.

1 Einleitung

Der vorliegende Beitrag plädiert dafür, digitale Literalität als Teil moderner Informationskompetenz systematisch in das Profil wissenschaftlicher Bibliotheken zu integrieren. Gemeint sind damit nicht nur fortgeschrittene Analysemethoden der Digital Humanities, sondern basale Fertigkeiten im Umgang mit digitalen Textformaten, eine Sensibilität für typografische Gestaltung und ein grundlegendes Verständnis von Text als strukturierter, digital repräsentierter Information.

Wenn Schreiben in den Geisteswissenschaften thematisiert wird, geht es meist um die inhaltlich-rhetorische Gestaltung wissenschaftlicher Texte – also um Stil, Argumentation oder rhetorische Struktur.[1] Hier und im Folgenden ist jedoch etwas anderes gemeint: die textontologische Frage, was materiell eigentlich geschieht, wenn Gedanken und Argumente gespeichert werden und was für eine Einheit das Resultat dieses Prozesses (der Text beziehungsweise die Textdatei) dann eigentlich ist. Wie wird Text am Computer repräsentiert, weitergegeben, bearbeitet oder archiviert? Diese Dimension wird häufig als selbstverständliches Vorfeld des eigentlichen Schreibens übergangen. Die Werkzeuge, mit denen geschrieben wird, bleiben dabei ebenso unhinterfragt wie die Formate, in denen wissenschaftlicher Text gespeichert und prozessiert wird.

Das betrifft nicht nur individuelle Arbeitsweisen, sondern auch institutionelle Strukturen: Die wissenschaftliche Publikationslandschaft befindet sich im Umbruch. Open Access, Preprint-Server, universitäre Repositorien und nicht-kommerzielle Publikationsplattformen lösen traditionelle Verlagssysteme zunehmend ab.[2] Damit verschieben sich auch etablierte Rollenverteilungen im wissenschaftlichen Publikationszyklus. Wo früher Verlage für Satz, Gestaltung und Distribution zuständig waren, übernehmen heute die Forschenden selbst weite Teile dieser Arbeit. Dies findet jedoch in einem akademischen Umfeld statt, das entsprechende technische, formale oder typografische Kompetenzen bislang kaum systematisch vermittelt.

Bibliotheken haben in diesem Transformationsprozess eine strategische Position: Sie bauen neue Infrastrukturen auf, betreiben Repositorien, publizieren selbst oder beraten in Publikationsfragen. Damit rücken sie näher an die produktive Seite wissenschaftlicher Arbeit heran und gewinnen ein neues Aufgabenprofil: Während Informationskompetenz in Bibliotheken traditionell eher von der Rezeptionsseite her gedacht wurde,[3] erfordert es die digitale Transformation, auch die Produktionsseite stärker in den Blick zu nehmen. Bibliotheken werden so zu Vermittlerinnen nicht nur von Informations-, sondern auch von Produktionskompetenz. Das schließt eine digitale Textkompetenz ein, die über die bloße Bedienung von Schreibsoftware hinausgeht: Sie umfasst Kenntnisse über offene Dateiformate, nachhaltige Arbeitsweisen, eine Sensibilität für Layout und Typografie und den reflektierten Umgang mit Text als strukturierter Informationseinheit.

Vor diesem Hintergrund plädiert der Beitrag dafür, digitale Textverarbeitung als produktive Kompetenz im Portfolio wissenschaftlicher Bibliotheken zu verankern. Er fragt, wie Bibliotheken das digitale Schreiben als Thema strategisch besetzen können: als wissenschaftliche Kulturtechnik, als infrastrukturelle Aufgabe und als epistemisch relevante Praxis. Dazu skizziert der Beitrag zunächst die Bedingungen und Eigenheiten geisteswissenschaftlicher Schreibprozesse und diskutiert darauf aufbauend zentrale Formate, Prinzipien und Werkzeuge digitaler Textarbeit, mit denen Bibliotheken produktive Textkompetenz systematisch fördern können.

2 Geisteswissenschaftliche Praxis

In dem Maße, in dem es den Bibliotheken nicht mehr nur um die Bereitstellung von Informationen geht, sondern auch um die Publikation wissenschaftlicher Literatur – also um die Produktionsseite –, ist es für sie instruktiv, sich mit der Praxis des wissenschaftlichen Schreibens zu beschäftigen. Neben dem Lesen von (literarischen) Texten und dem kritischen Denken[4] ist die wichtigste geisteswissenschaftliche Praxisform nämlich das Verfertigen von Texten: Auch die Resultate des Lesens und Denkens sind uns nur in Texten zugänglich.[5] Zu den Kernkompetenzen der Geisteswissenschaften gehört damit das Spezialwissen um die Textproduktion, sowohl theoretisch, nämlich als Teil des eigenen Gegenstandsbereichs, sowie als Gegenstand eigener Theoriebildung, als auch praktisch, also als ganz konkrete Tätigkeit. Für die wissenschaftlichen Bibliotheken ist vor allem der praktische Aspekt interessant.

Auch wenn die Geisteswissenschaften sich intensiv mit Texten beschäftigen, bleibt die technische Seite der Textproduktion meist ausgeblendet – sie hat in der universitären Lehre kaum einen Ort.[6] Historisch waren diese Tätigkeiten ausdifferenziert: Schriftsatz war ein Handwerk, das vom Schreibtischgeschehen vollständig abgekoppelt war. Am Schreibtisch entstanden hand- oder maschinenschriftliche Manuskripte – auch dies häufig per Diktat –, den Textsatz, die Buchproduktion, den Vertrieb und die Zugänglichkeit organisierten Verlage und Bibliotheken. Wenn es hier gegenwärtig zu einer Entdifferenzierung kommt, weil immer häufiger die Forschenden selbst am Computer ihre eigenen Texte auch setzen, so geschieht das oft ohne Rückgriff auf das historisch verfügbare Praxiswissen. Die handwerklichen Kompetenzen, die im Laufe der Zeit entstanden sind, drohen so geradezu vergessen zu werden.[7]

Den meisten Forschenden geht es dabei auch gar nicht um Layout. Ihre Arbeit ist das Verfassen des Textes als sprachliche Einheit. Sie wollen schreiben, nicht gestalten. Die Anordnung der Sätze auf der Seite ist eine zwar notwendige, aber bis zu einem gewissen Punkt kontingente Begleiterscheinung. Dass Microsoft Word[8] heute der faktische Standard für geisteswissenschaftliche Textproduktion ist, mag auch hieran liegen: Word ermöglicht es, den Text zu schreiben, ohne jemals über Layout und dergleichen nachzudenken – und ihn am Ende trotzdem auszudrucken.

Das alles gilt nicht nur für die im engeren Sinne geisteswissenschaftlich Forschenden: Auch die Masse der Menschen mit geisteswissenschaftlichem Hochschulabschluss, die sich nach dem Studium einem anderen Berufsfeld zuwendet, wäre im Prinzip besonders kompetent für die Textproduktion – und häufig besteht ja auch ihre konkrete Arbeit, sei es in Agenturen, Redaktionen oder in der Verwaltung – mehr oder weniger im Schreiben von Texten. Hier geht es wie gesagt nicht um geistreiche Einfälle und deren Formulierung, sondern ganz praktisch um die Handhabung der Texte mit dem Computer. In vielen Fällen bleibt diese Praxis implizit und wird selten als eigenständige Kompetenz reflektiert oder gezielt eingeübt. Diese Leerstelle betrifft zentrale Aspekte geisteswissenschaftlicher Arbeit und bietet Bibliotheken die strategische Möglichkeit, sich als produktive Kompetenzzentren zu profilieren.

3 Auf allen Stufen Text

Um zu verstehen, wie Bibliotheken die materiell-praktische Dimension der Textproduktion gezielt unterstützen können, lohnt zunächst ein kurzer Blick auf die einzelnen Phasen des geisteswissenschaftlichen Schreibprozesses. Denn auf jeder dieser Stufen haben es Forschende unmittelbar mit digitalen Texten und deren spezifischen Anforderungen zu tun. Explorativ sollen folgende Phasen unterschieden werden:

  1. Bibliografie, Notizen und Exzerpte

  2. Inventio (Sammlung und Entwicklung von Ideen und Argumenten)

  3. Dispositio (Gliederung und Strukturierung)

  4. Elocutio (sprachliche und stilistische Ausarbeitung)

Die erste Phase findet vor der eigentlichen Textproduktion statt, oft jedoch an der Grenze und bereits mit engem Blick darauf. Die folgenden drei Phasen sind an die Produktionsstadien der Rede nach der klassischen Rhetoriklehre angelehnt. In der Inventio geht es um die Sammlung der Punkte, die im Text vorkommen sollen. Die Dispositio gliedert diese Punkte, so dass eine Reihenfolge, der Aufbau eines Textes entsteht. Mit Elocutio ist das eigentliche Schreiben gemeint, also die konkrete Ausformulierung des Manuskripts. Schließlich wird mit Textsatz die konkrete Einrichtung des Textes als grafische Entität bezeichnet, also etwa die Gestaltung der Druckseite. Für alle diese Phasen ist es heute üblich, Computer zu benutzen. In jeder dieser Phasen hat man es primär mit digitalem Text zu tun. Hier stellt sich eine scheinbar technische, in Wahrheit aber grundlegende Frage: Wie werden Texte eigentlich digital repräsentiert – und was bedeutet das für ihre Lesbarkeit, Bearbeitbarkeit und Nachhaltigkeit?

Das wichtigste und folgenreichste Thema, mit dem man es dabei zu tun bekommt, ist die Frage nach den Dateiformaten. Für einen ersten, groben Überblick kann zunächst unterschieden werden zwischen Klartext-Formaten (z. B. txt, md, tex, xml) und komplexen Dokumentenformaten mit eingebetteter, oft schwer zugänglicher Struktur (z. B. docx, odt, rtf, pdf). Dokumentenformate speichern Daten meistens als Binärdateien, das heißt in einem Format, das von Menschen nicht direkt lesbar ist. Um den Inhalt einer Binärdatei zu verstehen, benötigt man spezielle Software. Zum Beispiel kann man eine pdf-Datei nicht oder jedenfalls nicht verlustfrei öffnen und lesen, wenn man keine kompatible Software installiert hat. Solche Software stellt die Inhalte der Binärdateien dann am Bildschirm auf eine Weise dar, die uns verständlich ist, die aber nicht der tatsächlichen Speicherung entspricht. Das ist einerseits komfortabel, andererseits birgt es grundsätzlich das Risiko, dass uns Details entgehen, weil wir die tatsächlich enthaltenen Informationen nicht sehen. Das verbreitetste Dateiformat in den Geisteswissenschaften dürfte zurzeit docx sein, also das Format von Microsoft Word.[9] Es handelt sich dabei um ein Containerformat, das nicht ohne weiteres von Menschen gelesen werden kann. Im Container befinden sich eine Vielzahl von xml-Dateien sowie etwaige Bilder und andere binäre Mediendateien, die im Dokument eingebettet sind. Aus der Perspektive von Word gibt es keinen unformatierten Text: Jedes Wort, jede Einkaufsliste ist als auf einer Seite platzierter Text gespeichert – mit spezifischen Abständen, Rändern, Farben, Schriftarten und -größen. All diese Informationen sind gemeinsam mit dem eigentlichen Text in den xml-Dateien gespeichert.

Im Gegensatz dazu enthalten Klartextdateien Daten in einem menschenlesbaren Format, das aus einer Sequenz von Zeichen eines standardisierten Zeichensatzes (zumeist UTF-8[10]) besteht. Textdateien können mit einfachen Texteditoren geöffnet und bearbeitet werden. Sie können sowohl einfachen Text enthalten als auch Text, der nach bestimmten Konventionen formatiert ist. Beispielsweise sind xml-Dateien Klartextdateien, die aber eine formalisierte, hierarchische Struktur aufweisen, die wiederum Hinweise für die Interpretation der gespeicherten Daten enthält. Quellcode, der für die Softwareentwicklung verwendet wird, ist ebenfalls in Klartextformaten gespeichert. So kann es sein, dass man bestimmte konventionelle Schreibweisen in einer Textdatei nicht versteht, die Zeichen selbst aber sind sichtbar und lesbar. Hinzu kommt: In den Textdateien sind keine über die sichtbaren Zeichen hinausgehenden Informationen gespeichert.

Alle oben unterschiedenen Phasen geisteswissenschaftlichen Schreibens lassen sich mit Klartextformaten professionell umsetzen. Die Phasen stellen je eigene Anforderungen an die Möglichkeiten der Textverarbeitung. Gemeint sind Programme, die Klartext so aufbereiten und darstellen, dass er den Anforderungen der jeweiligen Arbeitsphase entspricht und eine gezielte Bearbeitung ermöglichen. Für die Verwaltung bibliografischer Nachweise sowie für Notizen und Exzerpte gibt es die bekannten Literaturverwaltungsprogramme, die auch bereits ihren Platz in der bibliothekarischen Informationskompetenzvermittlung haben.

Hinzu kommen Notizverwaltungsprogramme. Für Inventio und Dispositio bieten sich so genannte Outliner an, also Programme, die hierarchische Listen von Einträgen darstellen und die einfache Änderungen solcher Listen erlauben. Die Elocutio ist die Domäne der Textverarbeitungsprogramme. Für den Textsatz gibt es verschiedene Ansätze, auf die unten zurückzukommen ist.

Auch für die Handhabung von eigenen Exzerpten und Notizen, also für alle im Arbeitsprozess anfallenden Texte oder Textfragmente, die nicht publiziert werden sollen, eignen sich Klartextformate. Da in diese Art von Texten üblicherweise sehr viel Arbeit fließt, ist es nicht ratsam, sich hier auf proprietäre Dateiformate zu verlassen. Wenn die Software der Wahl eines Tages nicht mehr gepflegt wird, oder wenn ich vielleicht eines Tages auf ein anderes Betriebssystem umsteige, kann es zu Inkompatibilitätsproblemen kommen – im schlimmsten Fall sind meine sämtlichen Notizen nicht mehr benutzbar. Es gibt aber zahlreiche Programme, die bloß als grafische Benutzungsoberfläche für Textdateien fungieren. Moderne Notiz-Software wie beispielsweise Obsidian[11] erlaubt es, einen Ordner auszuwählen und zeigt dann sämtliche in diesem Ordner enthaltenen Textdateien in seiner Programmoberfläche an. Man kann die Dateiinhalte durchsuchen, die Dateien bearbeiten und sie etwa mittels Tags organisieren und wie in einem Wiki Querverbindungen zwischen den Dateien anlegen. Die Möglichkeiten lassen sich durch Plugins noch erweitern, so dass man sich eine sehr mächtige, auf die eigenen Bedürfnisse zugeschnittene Umgebung für die Notizverwaltung zusammenbauen kann. Gleichwohl ist die Basis einfach eine Menge lokal gespeicherter Textdateien. Wenn man aus dieser Einrichtung die Software einfach abziehen würde, hätte man immer noch alle Textdateien, die man dann einfach in einem anderen Texteditor oder in einer anderen klartextbasierten Notizsoftware (wie Zettlr,[12] The Archive[13] oder Anytype,[14] aber auch Visual Studio Code[15]) öffnen kann: Textdateien sind softwareagnostisch. Sind die Dateien in einem cloudsynchronisierten Ordner gespeichert, kann man außerdem von überall darauf zugreifen. Die konkreten Funktionen einzelner Programme mögen variieren, entscheidend ist aber, dass die eigentliche Datengrundlage davon unberührt bleibt. Der Text bleibt offen, lesbar, übertragbar. Diese Unabhängigkeit von Softwareumgebungen ist keine Nebeneigenschaft, sondern ein zentrales Qualitätsmerkmal nachhaltiger wissenschaftlicher Arbeit.

Ähnliche Möglichkeiten gibt es für Literaturverwaltungsprogramme und für Outliner. Das Format BibTeX,[16] das zu den verbreitetsten Exportformaten für bibliografische Angaben gehört, basiert beispielsweise vollständig auf reinem Text. So kann die Bibliografie für einen Artikel in einer einzigen Klartextdatei gespeichert werden, das Literaturverwaltungsprogramm (z. B. Bibdesk[17]) bietet dann ein User Interface für diese Datei mit erweiterten Möglichkeiten wie einer feldbasierten Suche oder der Organisation der einzelnen Einträge in Ordnern.

4 WYSIWYM

Eng verknüpft mit der Frage nach dem Dateiformat ist die Art, wie der Text während der Bearbeitung dargestellt und strukturiert wird. Zwei Prinzipien stehen sich hier gegenüber: das visuell orientierte „What You See Is What You Get“ (WYSIWYG) und das strukturorientierte „What You See Is What You Mean“ (WYSIWYM). WYSIWYG bezeichnet das von Programmen wie Word bekannte Prinzip, dass die Anzeige am Bildschirm bereits eine Vorschau auf die fertige Druckseite darstellt. WYSIWYM bezeichnet hingegen das Prinzip des Quelltextes: Die Sätze, die in der Textdatei stehen, sind zunächst natürlich dieselben, die zusätzlichen Formatinformationen werden aber nicht grafisch repräsentiert, sondern textuell. So werden Überschriften durch zusätzliche Zeichen als Überschriften ausgewiesen, werden aber im Texteditor noch nicht als Überschriften dargestellt, also nicht größer, nicht zentriert, nicht fett oder wie auch immer das Ergebnis gestaltet sein soll. Der Text, der angezeigt wird, der gespeichert wird und mit dem gearbeitet wird, enthält nur die inhaltlichen und logischen Elemente des Textes. Diese sind von der anschließenden grafischen Realisierung noch getrennt. Das heißt auch, dass noch offenbleiben kann, wie der Text am Ende formatiert wird – zum Beispiel als Buchseite, als Website oder als PDF-Datei.

WYSIWYM ist dabei mehr als nur ein technisches Prinzip – es steht für eine andere Art, über Text nachzudenken. Der Fokus liegt nicht auf Layout und Aussehen, sondern auf Bedeutung und Struktur. Diese Trennung erlaubt es, wissenschaftliche Texte als logische Gebilde zu behandeln, unabhängig von ihrer konkreten Präsentation. Damit fördert WYSIWYM eine Praxis, die mit der formalen Denkarbeit der Geisteswissenschaften besonders gut kompatibel ist. Davon abgesehen hat WYSIWYM aber auch handfeste Vorteile: Die Platzierung der Formatierungen ist eindeutig. In Word ist nicht immer gut erkennbar, ob sich eine Kursivierung auch auf ein anschließendes Satzzeichen ausdehnt oder nicht, ob Leerzeilen im Text stehen oder ob sie Resultat von Formateinstellungen sind. Im Texteditor sind diese Ungenauigkeiten nicht möglich. Man sieht zu jeder Zeit präzise, welche Informationen im Dokument enthalten sind und welche nicht. Schreibpragmatisch mag die Ablenkung willkommen sein, die die Auswahlmöglichkeiten von Schriftarten, Schriftschnitten, Schriftgrößen, der Formatierung und Positionierung von Seitenzahlen und weiteren Seitenelementen bieten. Demgegenüber hat es auch Vorteile, den Text zumindest so lange auf seine logische Struktur zu reduzieren, bis der Schreibprozess im engeren Sinne abgeschlossen ist.

Klartextbasierte Arbeitsformen erweisen sich insbesondere im bibliothekarischen und archivarischen Kontext als besonders vorteilhaft. Zum einen benötigen WYSIWYG-Formate in der Regel ein Vielfaches des Speicherplatzes gegenüber Klartextformaten. Dass WYSIWYG-Formate häufig (nicht immer) mit der Speicherung in Binärdateien einhergehen, ist auch für eine langfristige Benutzbarkeit problematisch: Wenn die Software, die zum Öffnen der Dateien benötigt wird, nicht mehr verfügbar ist – sei es aus technischen oder lizenzrechtlichen Gründen –, sind die Dateien kaum verlustfrei zu rekonstruieren. Gerade im Kontext bibliothekarischer Aufgaben wie Langzeitarchivierung und Open Access erweist sich das WYSIWYM-Prinzip als strategischer Vorteil. Texte, die in offenen, strukturierten Formaten vorliegen, lassen sich leichter konvertieren, analysieren und unabhängig von spezifischer Software oder Plattformen dauerhaft zugänglich halten.

Damit ist zugleich eine weitere, mit den bereits genannten korrespondierende Unterscheidung angesprochen, nämlich die Unterscheidung zwischen proprietären und offenen Formaten. Auch diese Unterscheidung läuft nicht genau parallel zu derjenigen von Dokumenten- und Textformaten, aber in der Regel sind Klartextformate offen, das heißt, sie können mit beliebigen Texteditoren geöffnet werden. Da sie insgesamt weniger Informationen enthalten und nach Standards codiert sind, die es bereits seit den 1960er Jahren gibt, sind sie langlebiger als viele proprietäre, an die privatwirtschaftliche Entwicklung von spezifischer Software gebundene Formate. Und da sie mit offenen Standards arbeiten, sind offene Formate interoperabler, sie können beispielsweise einfacher konvertiert werden und sind weniger von bestimmten Softwareumgebungen abhängig.

Die Unterscheidung der beiden Prinzipien WYSIWYG versus WYSIWYM wird häufig am Fall der beiden Softwarelösungen Word versus LaTeX ausgetragen.[18] Zumindest in den Geisteswissenschaften hat sich Word als faktischer Standard durchgesetzt.[19] Warum in den Geisteswissenschaften? Das wäre eine interessante, empirisch zu klärende Frage und ein Desiderat für die bibliothekarische Benutzungsforschung. Und warum ausgerechnet Word? Word erscheint niedrigschwellig, und ist aufgrund der beherrschenden Marktstellung in fast allen institutionellen Kontexten verfügbar. Zudem mag man spekulieren, dass die visuelle Benutzeroberfläche (engl. graphical user interface – GUI) historisch eine starke Faszination ausgeübt hat: In den Anfangsjahren der Textverarbeitung galt die Möglichkeit, eine Druckseite auf dem Bildschirm abzubilden, als technische Sensation. Diese Simulation von Professionalität verlieh dem Schreiben eine neue Aura und prägt die Erwartungshaltung vieler Nutzerinnen und Nutzer bis heute. Zudem bietet WYSIWYG einen Vorteil für den geisteswissenschaftlichen Schreibprozess, insofern Schreiben zumeist auch das wiederholte, intensive Lesen des aktuellen Textes beinhaltet. Dass der Text schon fertig und gedruckt wirkt, während er gerade erst entsteht, mag – aber auch das müsste empirisch untersucht werden – den Schreibprozess (oder sogar den Denkprozess?) flüssiger wirken lassen.

5 Der eigene Text

Ausgehend von den bisher diskutierten Unterscheidungen kann man jeweils fragen, was der Text, den man am Ende des Schreibprozesses in Form einer Textdatei vor sich hat, eigentlich ist. Im Falle von Klartextformaten hat man es mit codierten Buchstaben zu tun, im Falle von Dokumentenformaten zusätzlich mit Informationen zur Formatierung, also zur Anordnung des gespeicherten Textes auf der Seite. In WYSIWYG-Formaten wie docx ist beides zusammengebracht, so dass ein recht kompliziertes Dateiformat herauskommt. Man kann es zwar auf Umwegen wieder menschenlesbar machen, dafür sind aber ungleich höhere IT-Kompetenzen erforderlich als für den Umgang mit txt-Dateien.

Aus informationstheoretischer Sicht ist ein Text zunächst eine Serie gespeicherter Selektionen – Selektionen von Buchstaben, Wörtern, Sätzen, Absätzen.[20] Jede Selektion, also etwa die Selektion, welches Wort jeweils konkret dasteht, ist eine intentionale Entscheidung, und das rechtfertigt die Zuschreibung der gespeicherten Selektionen auf konkrete Personen: Mein Text ist mein eigener Text. Gehören auch Formatentscheidungen zum Text? Und wenn ja: Auf Grundlage welcher Expertise wurden sie eigentlich getroffen? Wie wichtig sind sie? Für wissenschaftliche Texte ist die konkrete Formatierung (z. B. Schriftgröße, Abstände und Ränder) in der Regel zugunsten der logischen Struktur (z. B. Überschrift, Textabsatz) vernachlässigbar. Die textkonstituierenden Selektionen beziehen sich hier in den meisten Fällen auf die Selektion der sprachlichen Zeichen, nicht auf die Selektion der Formatierung.

Im Falle einer Word-Datei gibt es aber keine unformatierten, reinen Texte, die Texte enthalten also grundsätzlich auch Formatinformationen, auch wenn man diese nicht explizit eingibt. Für Forschende, die nicht gestalten, sondern in erster Linie schreiben wollen, ist es daher vernünftig, sich auch nur darauf zu konzentrieren. Es ist weder notwendig noch sinnvoll, den eigenen Text mit technischen Formatinformationen anzureichern, die für Inhalt und Argumentation keine Bedeutung haben. Für die Anforderungen wissenschaftlicher Textproduktion eignen sich daher solche Schreibumgebungen in besonderer Weise, die Form und Inhalt konsequent trennen und den eigenen Text in seiner sprachlichen und logischen Struktur sichtbar halten.

Wenn man den eigenen Text als gespeicherte Selektionen betrachtet, dann bietet ein docx-Format einen verstellten Zugang zum eigenen Text. Der eigene Text – das, was man sich ausgedacht und eingetippt hat – wird schon während des Eintippens automatisch angereichert durch Informationen, die nicht wesentlich sind und auch keine intentionalen Selektionen sind, sondern bloß gleichsam automatisch bestimmte Konventionen des jeweiligen Programms abbilden. Solche Formatvorgaben sind – sofern sie nicht ihrerseits intentionale Selektionen etwa des Verlags sind und als solche beobachtet werden – informationelles Rauschen. Sie überlagern die Selektionen, die den eigenen Text konstituieren. Vor allem, wenn noch nicht klar ist, was mit dem Text später passieren soll – soll er an andere weitergegeben oder sogar publiziert werden? – ist es nicht ratsam, bereits Entscheidungen über das finale Layout auf so enge Weise mit dem Text selbst zu verbinden.

Dagegen bleibt der in diesem informationswissenschaftlich verstanden Sinne eigene Text unverfälscht und in hohem Maße zugänglich, wenn er in einem Klartextformat vorliegt. Die Datei enthält dann nichts als die Selektionen der sprachlichen Einheiten der Texte sowie möglicherweise bestimmter wesentlicher Informationen über die logische Struktur der Texte. Solche Informationen sind im Idealfall ihrerseits menschenlesbar.

5.1 Auszeichnungen

Informationen über die logische Struktur von Texten werden bei Klartextdateien mittels so genannter Auszeichnungssprachen beziehungsweise markup languages codiert. Sie markieren die logische Struktur eines Textes – etwa Überschriften, Zitate, Hervorhebungen oder Absätze – direkt im Quelltext. Beispiele für Auszeichnungssprachen sind html, xml, LaTeX, Markdown. Alle diese Auszeichnungssprachen bieten jeweils ein Set an konventionalisierten Auszeichnungen für logische Strukturelemente wie „Überschrift“, „kursiv“, „Textzitat“ und dergleichen mehr. Diese Auszeichnungen haben dabei nicht nur eine visuelle Funktion, sondern auch eine semantische: Sie definieren, was ein Textabschnitt bedeutet, nicht nur, wie er aussieht. Das macht Auszeichnungssprachen zu einem zentralen Werkzeug für maschinelles Lesen, automatisierte Analyse und barrierefreie Darstellung. Viele dieser Sprachen erlauben es, die Tags, also die Auszeichnungselemente, zunächst unspezifisch einzusetzen und zentral zu definieren, so dass die Definitionen jederzeit revidiert werden können. So kann ich beispielsweise eine Auszeichnung „Hervorhebung“ definieren und damit alle hervorzuhebenden Wörter auszeichnen. Wie die Hervorhebung dann am Ende realisiert wird – durch Kursivierung, Sperrdruck oder noch ganz anders (vielleicht entscheide ich auch, doch lieber auf Hervorhebungen zu verzichten) – kann dann unabhängig entschieden werden.

Klartextdateien sind softwareagnostisch, das heißt, sie sind nicht an ein bestimmtes Programm oder eine bestimmte Software gebunden, sondern können mit praktisch jedem Texteditor auf jedem Betriebssystem geöffnet und bearbeitet werden. Sie lassen sich zwischen verschiedenen Systemen, Plattformen und Anwendungen problemlos austauschen, sind langfristig zugänglich und unabhängig von Softwareentwicklungen oder Obsoleszenz. Bibliotheken, die sich mit Dokumentenstrukturen, Metadatenstandards und interoperablen Formaten auskennen, sind prädestiniert, diese Prinzipien zu vermitteln, etwa in Schulungen zu wissenschaftlichen Publikationsworkflows oder Datenmanagementplänen.

5.2 Textsatz

Eine weitere Phase der Textproduktion, die in der Unterscheidung der Phasen geisteswissenschaftlichen Schreibens noch fehlt, ist die Einrichtung des Textes für die Publikation, also entweder für den Druck oder für die Online-Publikation. Dies wird häufig nach wie vor durch Profis, etwa von den Verlagen, übernommen. Immer mehr wird diese Arbeit aber an die Forschenden selbst delegiert. Das wäre früher gar nicht möglich gewesen, schon allein weil man spezielle Maschinen dafür benötigte, heute ist es aber prinzipiell an jedem Computer machbar.

Unabhängig davon, ob man den Text in WYSIWYG- oder in WYSIWYM-basierter Software schreibt, ist der Textsatz ein separates Problem. Im WYSIWYM-Ansatz ist dieses Problem offensichtlicher, denn in der Form, in der man den fertigen Text am Bildschirm sieht, kann er nirgendwo abgegeben werden, der Textsatz ist ein erkennbar notwendiger weiterer Schritt. Im Falle von WYSIWYG ist das anders, denn hier erscheint der Text bereits quasi fertig auf der Druckseite eingerichtet und kann im Prinzip sofort gedruckt werden. Diese scheinbare Unmittelbarkeit der Typografie verdeckt die tatsächliche Problematik, die das Thema für die geisteswissenschaftliche Textproduktion darstellt.

Denn Textsatz und Typografie sind keineswegs bloß akzidentielle, eben notwendige Zugaben, sie sind konstitutive Elemente des Textes, steuern maßgeblich die Aufmerksamkeit und ermöglichen die Navigation in gespeichertem Wissen. Karl A. E. Enenkel und Wolfgang Neuber bezeichnen das gedruckte Buch deshalb als eine „Erkenntnismaschine“.[21] Im Laufe der Geschichte der formalen Buchgestaltung sind zahlreiche Elemente und Unterscheidungen eingeführt worden, die ein enormes Differenzierungspotenzial haben. Diese Differenzen erlauben es uns nicht bloß, Informationen aufzunehmen, sondern sie lenken unsere Aufmerksamkeit aktiv und helfen uns, das, was wir lesen, einzuordnen. Schon einfache typografische Entscheidungen – etwa die Wahl von Schriftarten für Überschriften und Fließtext, der gezielte Einsatz von Weißraum, Einzügen oder Marginalien – strukturieren Informationen, betonen Zusammenhänge und heben relevante Inhalte hervor. Wer sich mit Textsatz und Typografie beschäftigt, lernt also nicht nur „schöner“ zu schreiben, sondern erkennt, wie die formale Gestaltung unsere Wahrnehmung von Inhalten prägt – und wie man diese gezielt einsetzen kann, um Texte klarer, zugänglicher und lesefreundlicher zu machen.

Textsatz ist ein Handwerk, das auf einer speziellen Ausbildung und viel Praxis fußt. In dem Maße aber, in dem das geisteswissenschaftliche Publikationswesen sich vom typografischen Spezialwissen und -können abkoppelt, braucht es beim Schreibenden selbst zumindest ein basales Grundgerüst an typografischem Sachverstand. Viele WYSIWYG-Editoren (wie Microsoft Word) verhindern das geradezu, indem sie typografische Differenzierungen zugunsten des Benutzungskomforts systematisch unsichtbar machen. Das betrifft insbesondere solche typografischen Zeichen, für die auf der Tastatur keine eigenen Tasten vorgesehen sind. So verschwindet die Differenzierung etwa zwischen Apostroph und Minutenzeichen, zwischen den verschiedenen Formen typografischer Anführungszeichen und Zollzeichen oder zwischen Gedanken- und Bindestrich.[22] Die üblichen WYSIWYG-Editoren ersetzen beispielsweise von Leerzeichen umgebene Bindestriche (‚-‘) (also das Zeichen, das normalerweise durch die Taste ‚-‘ erzeugt wird) durch typografisch korrekte Halbgeviertstriche (‚–‘), ohne dass man davon unbedingt etwas mitbekommt. Wenn bestimmte Unterscheidungen nicht mehr bewusst getroffen werden müssen, sinkt tendenziell auch die Auseinandersetzung mit deren Funktion und Bedeutung. Es lässt sich also zumindest die Beobachtung machen, dass Automatisierung typografische Kompetenz nicht unbedingt fördert – und unter Umständen sogar entbehrlich erscheinen lässt. Hier eröffnet sich ein neues Vermittlungsfeld für Bibliotheken: Es sollte Teil bibliothekarischer Vermittlungsangebote sein, eine zumindest grundlegende Sensibilität für derartige Fragen und Probleme zu vermitteln. Das ist vor allem dort sinnvoll, wo die betreffenden Texte durch die Bibliotheken selbst, etwa in Hochschulrepositorien, publiziert werden.

5.3 LaTeX

Es gibt Software, die es erlaubt, Detailtypografie auf professionellem Niveau selbst anzugehen (z. B. Adobe InDesign). Allerdings werden hierfür tatsächlich profunde Sachkenntnisse benötigt. Sofern also der Verlag einem den Satz nicht abnimmt und man mit den unvollkommenen Resultaten von WYSIWYG-Software nicht leben will, kann man auf klartextbasierte Auszeichnungssprachen ausweichen. Man markiert also die logische Struktur des Textes und koppelt das vom eigentlichen Textsatz ab. Ein bewährtes und unter anderem in den naturwissenschaftlichen Disziplinen weit verbreitetes Textsatzsystem ist LaTeX.[23] Es trennt konsequent Text und Layout, so dass man sich beim Schreiben ganz auf den Inhalt konzentrieren kann. Der Textsatz wird dann durch die TeX-Satzengine erledigt. LaTeX erzeugt eine hohe typografische Qualität nach etablierten Standards und unterstützt alle Elemente spezifisch wissenschaftlicher Texte wie Inhaltsverzeichnisse, Abbildungen und Abbildungsverzeichnisse, Tabellen, Fußnoten, Literaturverzeichnisse und sogar mathematische Formeln. Ein zentrales Merkmal von LaTeX ist der quelltextbasierte Zugang zum Dokument: Layoutentscheidungen werden über Befehle gesteuert, was eine hohe Reproduzierbarkeit und Konsistenz im Dokument ermöglicht. Die Textdateien haben minimalen Speicherplatzbedarf und sind mit allen gängigen Texteditoren auf allen gängigen Betriebssystemen langfristig benutzbar. Die LaTeX-Auszeichnungssprache geht auf das Textsatzsystem TeX und damit auf die 1970er Jahre zurück. Diese Auszeichnungssprache ist, einmal erlernt, relativ einfach und überschaubar, dennoch ist sie stark technisch geprägt und stellt anfangs eine gewisse Hürde dar. Sie ist heute vor allem in Disziplinen verbreitet, deren typografische Anforderungen durch Word nicht gedeckt werden, etwa weil spezielle Notationen verwendet werden (wie Physik, Mathematik oder Linguistik).

5.4 Markdown

Eine Alternative ist Markdown, eine sehr einfache und inzwischen weitgehend etablierte Auszeichnungssprache, die nicht nur maschinenlesbar, sondern auch für Menschen sehr gut handhabbar ist.[24] Markdown hat sich in den letzten Jahren als De-facto-Standard für einfaches, strukturiertes Schreiben im digitalen Raum etabliert. Die Auszeichnungssprache ist leicht zu erlernen, vielseitig einsetzbar und unterstützt eine große Bandbreite an Publikations- und Arbeitsformaten.

Auch Markdown trennt Inhalt und Layout konsequent, bietet selbst aber kein typografisches Satzsystem. Stattdessen erlaubt die Offenheit des Formats die einfache Einbettung in Workflows, in denen der Textsatz durch nachgeschaltete Systeme erfolgen kann. Man schreibt, ohne bereits entscheiden zu müssen, wie der Text am Ende gesetzt werden soll – sowohl hinsichtlich der technischen Realisierung als auch hinsichtlich des gewünschten Resultats. Wenn man später etwa entscheidet, den Text auf einer Website zu publizieren, kann man ihn leicht in HTML konvertieren (und mittels CSS an die spezifischen Anforderungen der Website grafisch anpassen). Oder man möchte ihn doch lieber auf Papier drucken, dann konvertiert man ihn in ein LaTeX-Dokument und setzt ihn mit LaTeX. Oder man konvertiert ihn nach DOCX, um ihn an jemanden weiterzugeben, der nur mit Microsoft Word umgehen kann.

Markdown eignet sich für die ergebnisagnostische Schreibarbeit besonders gut, weil es viele Vorteile der verschiedenen Modelle vereint. Markdown wird heute von einem breiten Spektrum an Software unterstützt, vor allem ist es in Webeditoren verbreitet. Das Format ist sehr leicht erlernbar, sehr gut menschenlesbar und eignet sich daher für niedrigschwellige Schulungen zu strukturierter Textarbeit – etwa für Hausarbeiten, Projekte in Repositorien oder Open-Science-Dokumentation.

5.5 Literaturverwaltung

Ein Bereich, in dem Bibliotheken bereits produktive Kompetenz erfolgreich vermitteln, ist die Literaturverwaltung. Programme wie Zotero,[25] Endnote[26] oder Citavi[27] gehören heute vielerorts zum Standardrepertoire bibliothekarischer Schulungsangebote und sind fest im Informationskompetenzportfolio verankert. Viele Tools wurden frühzeitig durch Bibliotheken aufgegriffen, institutionell unterstützt und durch Informationskompetenzprogramme verbreitet. Gerade im Fall von Zotero zeigen sich die Potenziale freier Softwarelösungen, die mit bestehenden Publikations- und Formatstandards kompatibel sind.

Für den vorliegenden Beitrag ist Literaturverwaltung nur insofern relevant, als sie Konsequenzen für die Schreib-Workflows hat, insbesondere vor dem Hintergrund der Unterscheidung WYSIWYG versus WYSIWYM. Die meisten Literaturverwaltungsprogramme sind nur per GUI zugänglich und sperren sich daher gegen klartextbasierte Workflows. Microsoft Word unterstützt Literaturverwaltungssoftware, so dass Referenzen komfortabel per Klick eingefügt werden können. LaTeX hat ein eigenes System für Literaturreferenzen (meist BibTeX), das ebenfalls vollständig klartextbasiert ist.

Auch hier zeigen sich die Unterschiede zwischen WYSIWYG- und klartextbasierten Umgebungen: In Word wird Literaturverwaltung meist über Plugins integriert, die Zitate und Bibliografien direkt in den formatierten Text einfügen. In LaTeX hingegen ist die Literaturdatei (meist BibTeX) vollständig klartextbasiert organisiert, unabhängig vom Layout – ein Verfahren, das konsistenter, nachhaltiger und kontrollierter ist, auch wenn es technisch anfangs komplexer wirkt. Markdown hingegen bietet nur sehr eingeschränkte Möglichkeiten, Fußnoten und Literaturreferenzen automatisch zu verwalten, hier ist man in der Regel auf manuelle Übernahme aus einer Literaturverwaltungs-Software angewiesen.

6 Gemeinsam schreiben

Die vorliegende Zeitschrift ist ein Beispiel für kollaboratives Arbeiten in den Geisteswissenschaften. Das muss nicht immer Koautorschaft bedeuten, aber dass man die Texte anderer liest und kommentiert, gehört auch in den Geisteswissenschaften zum Alltag. Die nun besprochenen Ansätze bieten für kollaboratives Arbeiten unterschiedliche Möglichkeiten.

Anders als Binärdateien lassen sich Klartextdateien sehr gut in Versionsverwaltungssystemen wie Git[28] nutzen. Ein kollaborativer Schreibworkflow lässt sich etwa durch die Kombination von Markdown und Git realisieren. Markdown ermöglicht die strukturierte Textverfassung in einem offenen Format, das ohne spezialisierte Software les- und bearbeitbar ist. Die Versionierung erfolgt über Git, wobei sämtliche Änderungen in sogenannten Commits dokumentiert und über Plattformen wie GitHub[29] oder GitLab[30] gemeinschaftlich verwaltet werden können. Für parallele Arbeitsprozesse lassen sich separate Entwicklungszweige (branches) anlegen, die eine verlustfreie Zusammenführung divergierender Textfassungen erlauben.

Kommentierungen erfolgen dabei nicht über unmittelbar an den Text gebundene Kommentarwerkzeuge, wie sie etwa in Word üblich sind, sondern in separaten Review-Prozessen (etwa über Pull-Requests), die eine strukturierte Nachverfolgung, Diskussion und Integration von Änderungsvorschlägen ermöglichen. Im Unterschied zu dem verbreiteten Verfahren, bei dem Texte in unterschiedlichen Fassungen per E-Mail versendet, mit Datums- oder Namenszusätzen versehen („Textversion_final_NEU2_ML_13-04.docx“) und anschließend manuell zusammengeführt werden, bleibt der Bearbeitungsverlauf in Git konsistent, versioniert und rekonstruierbar. Ein solcher Ansatz bietet nicht nur funktionale Vorteile, sondern etabliert auch eine methodisch reflektierte Form gemeinschaftlicher Textproduktion.

Das ermöglicht eine transparente und verlustfreie Dokumentation der Entstehungsgeschichte eines Textes. Für die wissenschaftliche Zusammenarbeit ist dies nicht nur retrospektiv – etwa im Sinne editorischer Nachvollziehbarkeit – bedeutsam, sondern unmittelbar für den Schreibprozess selbst: Änderungen können geprüft, Vorschläge zusammengeführt und Verantwortlichkeiten nachvollzogen werden. Insbesondere in längeren Arbeitsphasen kann es vorkommen, dass eine einzelne Änderung – etwa eine neue Begriffswahl oder die Umstellung eines Argumentationsgangs – eine Vielzahl abhängiger Anpassungen im gesamten Text nach sich zieht. Wird die ursprüngliche Änderung später wieder verworfen, ist ohne systematische Versionskontrolle häufig nicht mehr nachvollziehbar, welche weiteren, davon abhängigen Änderungen ebenfalls zurückgenommen werden müssten. In einem versionierten Workflow hingegen lassen sich solche Entwicklungslinien sichtbar machen und gezielt rekonstruieren. Hinzu kommt, dass in textnahen Kommentarsystemen wie in Word Anmerkungen verloren gehen können, wenn sich ihre Referenz – etwa durch das Löschen eines Satzes – auflöst. In Git-basierten Review-Prozessen hingegen bleiben auch Diskussionen über verworfene Inhalte erhalten.

Darüber hinaus lassen sich automatisierte Prüfmechanismen integrieren, die etwa die Einhaltung formaler Kriterien wie Zitierweise, Überschriftenstruktur oder Formatkonventionen überwachen. Auf diese Weise wird die Qualitätssicherung nicht nachgelagert, sondern zum integralen Bestandteil des kollaborativen Schreibprozesses. Klartextformate ermöglichen somit nicht nur eine differenzierte technische Unterstützung kollaborativer Arbeitsprozesse, sondern tragen auch dazu bei, deren Abläufe transparenter, strukturierter und langfristig nachvollziehbar zu gestalten.

7 Texteditoren als Geräte geisteswissenschaftlicher Forschung

Obwohl Text für die Geisteswissenschaften von zentraler Bedeutung ist – und zwar sowohl hinsichtlich seiner Rezeption wie seiner Produktion –, liegt die Kompetenz für die computergestützte Textverarbeitung heute eher im IT-Bereich. Der konkrete Anwendungsfall ist Programmcode. Es gibt für die Erzeugung und Bearbeitung von Quelltext zahlreiche hochspezialisierte Tools, die aber außerhalb der IT-Sparte selten verwendet werden. Text-Tools, wie Programmierer sie verwenden, sind bzw. wären heute die besten „Geräte“ auch für die geisteswissenschaftliche Forschung. Dabei geht es nicht um einfache Schreibprogramme wie WordPad, sondern um komplexe Entwicklungsumgebungen für Text, also um Werkzeuge, die Syntaxhervorhebung, Erweiterbarkeit, semantische Navigation und Versionskontrolle in einer Oberfläche vereinen.

Texteditoren wie Sublime Text[31] oder Visual Studio Code sind heute leistungsstarke Werkzeuge für jede Art von strukturiertem Schreiben. Gerade in den Geisteswissenschaften bieten sie – oft ungenutzt – ein enormes Potenzial: Sie machen Text in seiner technischen, formalen und semantischen Struktur erfahrbar. Alle oben unterschiedenen Phasen geisteswissenschaftlicher Arbeit lassen sich vollständig mit Texteditoren abbilden. Wenn Bücher die „perfekte Lesemaschine“ sind, sind Texteditoren die perfekten Schreibmaschinen.

Die meisten Texteditoren erlauben eine Einbindung der Versionskontrolle Git, die gerade für längerfristige Projekte wie wissenschaftliche Qualifikationsschriften sowie in kollaborativen Projekten sehr praktisch ist. Die Versionskontrolle bietet eine Möglichkeit, Bearbeitungen nachzuverfolgen, unterschiedliche Schreibversionen zu verwalten und den Überblick zu behalten. Nicht zuletzt ist Git eine praktische Möglichkeit der Datensicherung. Viele Editoren bieten außerdem Funktionen wie Autocompletion und Snippets, Funktionen also, mit deren Hilfe wiederkehrende Phrasen oder Formate schnell eingefügt werden können. Sie erhöhen nicht nur den Komfort beim Schreiben, sondern auch die Konsistenz.

Texteditoren bieten erweiterte Funktionen, die über klassische Schreibprogramme hinausgehen. Dazu zählen etwa Suchen-und-Ersetzen-Werkzeuge, die auf Mustern basieren – sogenannten regulären Ausdrücken.[32] Damit lassen sich Texte effizient strukturieren oder umformatieren: So kann man beispielsweise alle Fußnoten eines Dokuments extrahieren oder eine Liste von Literaturangaben in ein tabellarisches Format überführen. Auch einfache Umformungen – etwa eine Liste in einen durch Kommas getrennten Satz umzuwandeln – lassen sich auf diese Weise effizient durchführen. Gerade wenn man mit Copy & Paste aus unterschiedlichen Quellen arbeitet, ermöglichen solche Funktionen eine schnelle Vereinheitlichung heterogener Textteile. Darüber hinaus unterstützen viele moderne Editoren das gleichzeitige Bearbeiten mehrerer Textstellen, etwa um wiederkehrende Formate in Listen einheitlich zu ändern. Solche Werkzeuge sind besonders hilfreich, wenn umfangreiche Textmengen verarbeitet oder verschiedene Versionen verglichen werden sollen.

Viele Texteditoren sind mittels Plugins noch erweiterbar und erlauben so beispielsweise die Integration von Textanalyse-Tools (z. B. Zählung von Wörtern, Zeichen oder spezifischen Phrasen). Vom Überblick über den Umfang des eigenen Textes kommt man auch relativ schnell zu Analysen, die bereits im eigentlichen Bereich der Digital Humanities spielen, wenn man etwa die Häufigkeit von Begriffen oder Namen analysiert oder den eigenen Wortschatz statistisch auswertet, um seinen Stil zu verbessern. Wenn nach einer alten hermeneutischen Sichtweise Analyse und Produktion von Texten zwei Seiten derselben Medaille sind, so sind Texteditoren ein der geisteswissenschaftlichen Textproduktion besonders angemessenes Werkzeug.

Dass Texteditoren „nur Text“ anzeigen, bedeutet nicht, dass es egal ist, wie der Text am Bildschirm aussieht. Einem verbreiteten Vorurteil zufolge ist die Oberfläche von Texteditoren hässlich. Basis dieser Sichtweise ist oft ein falsch verstandenes ästhetisches Verhältnis zum Schreiben am Computer. Befriedigt man diese Sehnsucht nach ästhetisch ansprechender Typografie im Schreibprozess durch Anpassungen der WYSIWYG-Textverarbeitung, so ist das in hohem Maße unvollkommen. Texteditoren entsprechen dagegen dem typografischen Ideal der „Lesemaschine“ viel eher, denn sie sind hochergonomisch. Farben, Kontraste und Schriftarten sind auf maximale Ergonomie hin gestaltet. Die Standardkonfigurationen sind auf die Softwareentwicklung ausgerichtet. So werden beispielsweise meistens Schriftarten verwendet, die die Ambiguität zwischen bestimmten Zeichen – O und 0, l und I usw. – durch deutliche Differenzierungen minimieren und deshalb am Bildschirm gut lesbar sind. Es gibt Schriftarten, die über spezielle Ligaturen von Sonderzeichen verfügen, um typisch in Programmcode vorkommende Zeichenkombinationen optisch besser erfassbar zu machen.[33] Texteditoren sind aber in der Regel sehr anpassbar, weil so gut wie alle UI-Elemente vollständig konfigurierbar sind. So lässt sich leicht eine Benutzungsoberfläche für natürlichsprachigen Fließtext anpassen.[34]

Texteditoren verzichten meist auf das in Office-Textverarbeitungsprogrammen verbreitete Übermaß an Schaltflächen. Während Programme wie Microsoft Word mit Icons, Symbolleisten und Menüs operieren, die jedes noch so spezielle Formatierungsbedürfnis visuell abbilden, setzen Texteditoren auf eine reduzierte, ablenkungsfreie Oberfläche und eine explizite, textuelle Auszeichnung. Sie verlangen eine explizite, bewusste Entscheidung für jede Auszeichnung – und fördern damit eine reflektierte, strukturorientierte Schreibpraxis. Texteditoren sind damit nicht nur Werkzeuge, sondern methodische Interfaces der geisteswissenschaftlichen Erkenntnisproduktion. Wer sie nutzt, trainiert nicht nur Technikverständnis, sondern kultiviert eine reflektierte Form wissenschaftlicher Textarbeit im digitalen Zeitalter.

All diese Ansätze und Technologien sind in der IT-Welt – aber natürlich auch in wissenschaftlichen Bibliotheken – weit verbreitet und völlig selbstverständlich. In den Geisteswissenschaften sind sie dagegen, sieht man einmal von den Digital Humanities und Teilen der Linguistik ab, wenig geläufig. Angesichts der beschriebenen Umbrüche in der Publikationslandschaft – etwa der zunehmenden Selbstpublikation durch Forschende in Repositorien, Blogs oder Open-Access-Plattformen – sollten die Geisteswissenschaften unbedingt eine eigene Kompetenz für den Umgang mit Text als strukturierter, digitaler Datenform entwickeln. Darüber hinaus sollten sie auch in praktischer Hinsicht Spezialkompetenzen für Textproduktion für sich beanspruchen. Vor allem aber sollten sie eine spezifische Sensibilität für Typografie kultivieren. Die Alumni geisteswissenschaftlicher Studiengänge sollten in Fragen der wissenschaftlichen Textproduktion, aber auch in den Redaktionen und Unternehmen, in denen ja immer auch Texte produziert werden, diejenigen sein, die wissen, wie man Texte am Computer effizient und nachhaltig verwaltet und bearbeitet. Sie sollten mit den Grundelementen des Layouts vertraut und in der Lage sein, diese situations- und zielgruppengerecht einzusetzen. Dazu gehört auch ein Gefühl für Schriftarten, Abstände, Formate und den typografischen Ton eines Textes. Typografische Bildung sollte daher ein integraler Bestandteil geisteswissenschaftlicher Ausbildung sein – nicht als technisches Beiwerk, sondern als kulturelle Praxis der Textgestaltung.

Das bedeutet nicht, dass Textsatz als geisteswissenschaftliche Subdisziplin gesehen werden sollte. Ein wissenschaftlicher Text muss auch nicht unbedingt immer nach professionellen Standards gesetzt werden. Allerdings sollte die geforderte Sensibilität dazu befähigen, entscheiden zu können, wann welche Form angemessen ist. Der Satz von mit Markdown geschriebenen Texten ist beispielsweise technisch voraussetzungsreicher als bei herkömmlichen Textverarbeitungsprogrammen wie Microsoft Word, da zusätzliche Konvertierungsschritte und Werkzeuge wie Pandoc erforderlich sind. Das Format ist minimalistisch und eignet sich gut als Austauschformat und als Format für kollaboratives Schreiben, macht aber Umwege erforderlich, wenn daraus eine gedruckte Seite werden soll. Tools wie Pandoc[35] ermöglichen die Umwandlung zwischen zahlreichen Markup-Formaten wie Markdown, LaTeX, html, docx, epub und vielen anderen und unterstützen auch Literaturverwaltungsdaten.

Die beschriebenen Kompetenzen bilden zugleich eine gute Grundlage für die Digital Humanities: Wer Text als Datei versteht, mit Editor, regulären Ausdrücken und Markdown arbeitet, versteht auch die Methoden und Werkzeuge der Digital Humanities schneller, selbstverständlicher und besser. Das ermöglicht es auch, Digital Humanities auf einer breiteren Userbasis zu etablieren. Eine allgemeine Textkompetenz auch außerhalb der Digital Humanities im engeren Sinne stärkt die Digital Humanities-Forschung auch insgesamt.

8 Ein strategischer Leerraum

Trotz ihrer zentralen Bedeutung wird digitale Textproduktion in der geisteswissenschaftlichen Ausbildung kaum systematisch behandelt. Hier eröffnet sich für wissenschaftliche Bibliotheken ein bislang weitgehend unbesetztes Handlungsfeld. Die geisteswissenschaftlichen Institute sehen sich nicht zuständig, sondern behandeln Schreiben im Kontext von Textsortenspezifika. Textverarbeitung ist dann in der Regel nur ein arbiträres Merkmal im Schreibprozess neben den Lichtverhältnissen, der Geräuschkulisse oder der Möblierung des Schreibzimmers.[36] Bibliothekarische Angebote wie die Schreibzentren oder -werkstätten[37] haben ebenfalls einen anderen Fokus, dort geht es nämlich in der Regel um Schreibblockaden oder wiederum um die Gattungsspezifika wissenschaftlicher Texte, also etwa um Argumentationsstrukturen oder sprachliche Besonderheiten.

Wo die Bibliotheken die Digital Humanities als neues Betätigungsfeld entdecken, geht es meistens um avanciertere Analysemethoden, also wieder nicht um die Grundlagen geisteswissenschaftlicher Textverarbeitung.[38] Angesichts der Entwicklungen in der Publikationslandschaft und dem zunehmenden bibliothekarischen Engagement in Projekten wie Open Access oder Universitätsverlagen bietet sich für die Bibliotheken ein hochrelevantes Thema, das bisher von niemandem beansprucht wird. Für Bibliotheken ist das ein strategischer Leerraum, den sie besetzen können und sollten.

In dem Maße, in dem wissenschaftliche Bibliotheken nicht nur die Erschließung und Nutzung, sondern auch die Publikation wissenschaftlicher Informationen zu ihrem Aufgabenspektrum zählen, sollten sie die Informationskompetenz um produktive Kompetenzen erweitern. Informationskompetenz sollte nicht mehr nur allein rezeptiv gedacht werden, sondern auch produktiv. Gerade die Textproduktion gehört zentral zur digitalen Literalität (digital literacy). Der souveräne Umgang mit digitalen Schreibumgebungen, Dateiformaten, Versionskontrolle und textnaher Strukturierung ist dabei ein ebenso wichtiger Bestandteil wie die Recherche- oder Bewertungsfähigkeit von Informationen.

Die Vermittlung digitaler Textkompetenz im dargestellten Sinne geht weit über die üblichen Bedienungsanleitungen der grafischen Benutzungsoberflächen von Textverarbeitungsprogrammen hinaus. Sie umfasst ebenso eine ontologische Sensibilisierung: Was ist eigentlich ein Text und wie wird er im Computer repräsentiert: als Mimikry einer bedruckten DIN A4-Seite oder als offene, interoperable Daten?[39] Die Empfehlungen sollten, passend zum bibliothekarischen Open-Science-Portfolio, auf offene, resultatagnostische, kompatible und interoperable Dateiformate abzielen. Nicht nur, weil dies nachhaltiger ist, sondern weil es den Zugang zu wissenschaftlichem Wissen auf lange Sicht sichert.

Ein um die produktive Dimension erweitertes DH- beziehungsweise Informationskompetenzangebot könnte ganz konkrete Themenfelder adressieren: Es könnte Einführungen in strukturierte, offene Textformate wie Markdown, LaTeX oder XML bieten, ergänzt durch Übungen zum praktischen Einsatz in wissenschaftlichen Publikationsworkflows. Aber auch die eigene klartextbasierte Wissensverwaltung kann Gegenstand von Schulungen werden. Schulungen zu Versionskontrolle mit Git – auch jenseits der Softwareentwicklung – könnten zeigen, wie sich kollaborative Textproduktion transparent und nachvollziehbar gestalten lässt. Zur Informationskompetenz zählt auch typografisches Basiswissen, das im Rahmen von Schulungen anhand konkreter Beispiele vermittelt werden kann. Solche Angebote müssten keine vollständig neuen Formate sein – vielmehr ließen sich bestehende Schulungsreihen modular erweitern oder mit Partnerinstitutionen wie Rechenzentren, Universitätsverlagen oder Schreibzentren, aber natürlich auch mit den geisteswissenschaftlichen Instituten koordinieren. Digitale Literalität ist ein ideales Kooperationsfeld für die Geisteswissenschaften mit ihren Anforderungen, praktischen Bedarfen und epistemologischen Perspektiven auf der einen und Bibliotheken mit ihrer technischen Expertise, ihrer Infrastrukturkompetenz und institutionellen Anschlussfähigkeit auf der anderen Seite.

Ein ambitioniertes, aber sehr gewinnbringendes Projekt für wissenschaftliche Bibliotheken wäre die Entwicklung einer auf Bedarfe der geisteswissenschaftlichen Textproduktion zugeschnittenen Markup-Sprache. Der in vielen naturwissenschaftlichen und technischen Disziplinen – auch teilweise in den Digital Humanities – verbreitete Einsatz von LaTeX stellt zwar eine funktionale Lösung dar, ist aber historisch und technisch stark auf den PDF-Export ausgerichtet. Die Struktur des Textes wird dadurch häufig vom drucktypografischen Endprodukt her geprägt. In einer digitalen Publikationslandschaft, in der Veröffentlichungsformate zunehmend vielfältig sind, bedarf es eines Formats, das nicht das Layout, sondern die logische Gliederung, die Argumentstruktur und die Nachnutzbarkeit des Textes in den Mittelpunkt stellt.

Zentral ist hier vor allem die Verarbeitung von Fußnoten und Referenzen, die gerade für die geisteswissenschaftlichen Arbeitsweise kennzeichnend ist. Bestehende Markup-Sprachen wie Markdown erlauben zwar Fußnoten, bieten hierfür aber keine besonders ergonomische Handhabung. Literaturreferenzen, die auf externe oder lokale Literaturdatenbanken zugreifen, werden gar nicht unterstützt. Gerade diese Features machen aber für das geisteswissenschaftliche Schreiben den Unterschied. Ihre technische Umsetzung ist jedoch anspruchsvoll: Fußnoten erfordern verschachtelte Textstrukturen mit stabiler Verankerung im Fließtext, Literaturverweise komplexe Verknüpfungen mit externen Datenquellen. Gerade hier liegt eine Stärke wissenschaftlicher Bibliotheken, die nicht nur über tiefgehende Erfahrung mit strukturierter Metadatenpflege verfügen, sondern auch selbst Literaturdatenbanken betreiben – Infrastrukturen, die im Idealfall direkt in eine solche Markupsprache eingebunden werden könnten.

Eine Markupsprache für die Geisteswissenschaften müsste output-agnostisch sein: Man soll erst ganz am Ende des Schreibprozesses entscheiden müssen, was im weiteren Prozess mit dem Text passieren soll – ob er beispielsweise ausgedruckt und im Seminar verteilt, als Buch (elektronisch oder im Print) publiziert oder einfach elektronisch für späteren Zugriff archiviert werden soll. Des Weiteren müsste eine solche Markupsprache eine klar auszeichnungsfähige logische Struktur haben, Kommentare und kollaborative Bearbeitung ermöglichen, Versionskontrolle unterstützen, sowie software-agnostisch sein. Sie sollte nicht nur maschinenlesbar, sondern auch menschlich handhabbar, nachhaltig, datensparsam und ergonomisch sein. Die Sprache müsste offen, kollaborativ, ergonomisch und nachhaltig sein. Wissenschaftliche Bibliotheken könnten bei der Entwicklung eines solchen Standards eine zentrale Rolle übernehmen. Im Verbund könnten sie die Ressourcen zur Verfügung stellen für die Entwicklung und die nachhaltige Pflege, sie hätten aber zugleich die ideale Position als Vermittlerinnen, Moderatorinnen und Multiplikatorinnen.

Bibliotheken, die sich auf dieses Feld einlassen, könnten eine zentrale Rolle in der Transformation der geisteswissenschaftlichen Publikationskultur übernehmen – nicht durch technologische Innovation allein, sondern durch die Vermittlung einer reflektierten, offenen und zukunftsfähigen Praxis des wissenschaftlichen Schreibens. Sie können Räume schaffen, in denen Texte nicht nur gelesen und gefunden, sondern auch kompetent und bewusst produziert werden. Damit würden sie nicht nur auf eine sich wandelnde Infrastruktur reagieren, sondern werden selbst Teil dieser Infrastruktur.

Über den Autor / die Autorin

Mirco Limpinsel-Pesavento

Mirco Limpinsel-Pesavento

Online erschienen: 2025-08-13
Erschienen im Druck: 2025-08-07

© 2025 bei den Autoren, publiziert von Walter de Gruyter GmbH, Berlin/Boston

Dieses Werk ist lizenziert unter der Creative Commons Namensnennung 4.0 International Lizenz.

Artikel in diesem Heft

  1. Titelseiten
  2. Editorial
  3. Fachbeiträge
  4. Digital Humanities in wissenschaftlichen Bibliotheken – ein Textsprint
  5. DH Spaces: Freie Schaffensräume als multifunktionale Orte an Bibliotheken
  6. Campus-HUB – AktionsRAUM einer offenen Wissenschaft
  7. Supporting Research – Beratungsinfrastrukturen und Organisationsentwicklung
  8. Makerspaces in der Hochschullehre etablieren: Erfolgreiche Methoden, Werkzeuge und Messkriterien
  9. Akademische Textverarbeitung
  10. Labs und Makerspaces für wissenschaftliche Kontexte – Eine kollaborative Annäherung
  11. Digital History of Education Lab – im Spannungsfeld zwischen Bedarfsorientierung und Innovation
  12. Stabi Lab – Vielfalt von Themen und Skills
  13. Von der Idee zum DNBLab: ein zentraler Zugang zu digitalen Ressourcen
  14. Ein Digital Makerspace für die Herzogin Anna Amalia Bibliothek der Klassik Stiftung Weimar
  15. DigiPop – eine Wissensplattform als Living Document
  16. Kompetenzerwerb und Kompetenzerhalt
  17. Werkstatt: Integrierte Entwicklung von Hands-On-Kompetenzvermittlung und forschungsorientierten digitalen Diensten
  18. Tagungsbericht
  19. „RDMO Hackathon 2024“
  20. Nachrichten
  21. Nachrichten
  22. Produktinformationen
  23. Produktinformationen
  24. ABI Technik-Frage
  25. Was machen Digital Humanists in Bibliotheken – Was machen Bibliotheken in den Digital Humanities?
  26. Rezensionen
  27. Yes, we’re open! Open Libraries innovativ und praxisnah umsetzen. Herausgegeben von Sabine Wolf. Wiesbaden: b.i.t.verlag gmbh, 2024 (b.i.t.online – Innovativ; 94). – 307 S., Ill., Diagr., – ISBN 978-3-9826339-1-6 (Broschur). 34,50 €
  28. Praxishandbuch Bibliotheksmanagement. Herausgegeben von Jochen Johannsen, Bernhard Mittermaier, Hildegard Schäffler und Konstanze Söllner. 2., völlig neu überarbeitete Auflage. Berlin, Boston: De Gruyter Saur, 2025. – XXII + 849 S., 33 Ill. – eBook ISBN: 978-3-11104-634-1. Open Access. ISBN: 978-3-11102-991-7. 189,94 €.
  29. Veranstaltungskalender
  30. Veranstaltungskalender
Heruntergeladen am 23.9.2025 von https://www.degruyterbrill.com/document/doi/10.1515/abitech-2025-0043/html
Button zum nach oben scrollen