Abstract
This article discusses the potential of Gunter Martens’ model of textual dynamic (‚Textdynamik‘) for further approaches, specifically Jerome McGann’s social text theory and Dirk Van Hulle’s model of a dynamic facsimile in the context of born digital documents. Two hypotheses are central to this: 1) On a theoretical level, Martens’ model makes it possible to establish comparability between different theories of text from different ‘schools’ of editing and thus promote further theory-building processes. 2) On a practical level, such a model of textual dynamic can be used particularly well for the editing of modern literary texts, which are characterised as open and incomplete.
Der Textbegriff gehört zu den besonders kontrovers diskutierten Kategorien der Editionswissenschaft.[1] Das verwundert nicht, da sich in ihm editionstheoretische Axiome, Traditionslinien und ‚Schulen‘, Ausgabentyp und damit zusammenhängende Zielgruppen- und Funktionsbestimmung einer Edition spiegeln. In dieser Rolle bietet er sich aber auch besonders für eine vergleichende Analyse ebensolcher Modelle und ‚Schulen‘ an.[2] Im Folgenden sollen ausgewählte Ansätze aus unterschiedlichen Editionstraditionen hinsichtlich ihres Textverständnisses und der daraus folgenden Implikationen für Editionen in den Blick genommen werden. Ziel ist es, mögliche Anknüpfungspunkte zu finden, die es künftigen Arbeiten ermöglichen, diese Traditionen nicht strikt voneinander zu trennen, sondern stärker zusammenzudenken. Den Ausgangspunkt bildet dabei das Modell der Textdynamik, wie es von Gunter Martens im Sammelband Texte und Varianten 1971 erstmals beschrieben wurde.[3] Die erste Hypothese lautet, dass gerade dieses Textmodell besonders geeignet ist, die scheinbar unvereinbaren Gegensätze verschiedener internationaler ‚Schulen‘ zu überwinden und eine Vergleichbarkeit zwischen den Ausrichtungen herzustellen, die auch für weitere Theoriebildungsprozesse förderlich sein kann.
Martens’ Beitrag im genannten Sammelband ist daher nicht nur rückblickend als historisches Dokument der Editionstheorien zu würdigen. Er ist vielmehr zu ‚reaktivieren‘[4] und für neue Fragestellungen bezogen auf neue Gegenstände der Editionswissenschaft – zu denken ist hier vor allem an digitale Schreib- und Publikationspraktiken von Autorinnen und Autoren – weiterzuentwickeln. In der dem Editionsgegenstand geschuldeten Modifikation eines Modells sehe ich auch das Argument einer grundsätzlich möglichen Vergleichbarkeit von Ansätzen aus verschiedenen Traditionen bzw. ‚Schulen‘. Wurde das ‘Copy-text’-Verfahren bekanntlich aus den Umständen der fehlenden Handschriftenüberlieferung für das Werk Shakespeares als eine druckanalytische und bibliographisch geschulte Methodik entwickelt, steht etwa die ‹critique génétique›[5] mit ihrer Konzentration auf handschriftliche Schreibprozesse auf Manuskriptseiten in ihrer Materialbezogenheit traditionell konträr zur angloamerikanischen Tradition, aber den an der Genese orientierten Ansätzen innerhalb der deutschsprachigen Tradition der historisch-kritischen Ausgaben sehr nah. Es erweisen sich gerade die Neuerungen im Schreiben und Distribuieren von Texten aufgrund von Erfindungen wie der Schreibmaschine, dem Computer und anderen Schreibgeräten als Innovationsmotoren auch für die ‚Editionsschulen‘[6] selbst; diese sind sowohl in ihrer Arbeitsweise betroffen als auch hinsichtlich der sich ändernden Materialität ihres Gegenstands. So hat sich beispielsweise die ‹critique génétique› neuen Forschungsgegenständen[7] zugewandt und dabei methodisch geöffnet.[8] Gleiches lässt sich natürlich für die in der Tradition des ‘Copy-text’-Verfahrens stehende angloamerikanische Editionswissenschaft sagen.[9] Die deutschsprachige Tradition des historisch-kritischen Edierens galt (und gilt noch immer) insbesondere aus angloamerikanischer Sicht als weitgehend nichtadaptionsfähiges Spezifikum. Doch gab es immer auch schon Positionen, die stärker nach Gemeinsamkeiten gesucht haben, statt die Unterschiede als unüberwindbar zu markieren. So formuliert Peter Shillingsburg vorsichtig:
Es gibt eine Übereinstimmung zwischen historisch-kritischem Edieren in Deutschland und gegenwärtigen anglo-amerikanischen Editionszielen, und zwar das Abrücken von der Wiedergabe eines fehlerfreien edierten Textes als Ergebnis der Autorintention hin zu der Vorstellung von vielfältigen Intentionen, mehrfachen Texten und Fassungen als komplexe editorische Aufgabe. Aber das Beharren auf der Wiedergabe von vielfältigen Autorintentionen in solchen Fassungen, die sowohl die Rückführung (durch nichtautorisierte Eingriffe) als auch die Entwicklung (durch autorisierte Veränderungen) solcher Intentionen repräsentieren, spiegelt sich in einem größeren Spielraum für Emendationen in anglo-amerikanischen Editionen wieder [sic], als er in deutschen Editionen toleriert würde.[10] Vermutlich führen solche Verallgemeinerungen aber in die Irre.[11]
Diese Feststellung Shillingsburgs ist nun beinahe ein Vierteljahrhundert alt und es scheint lohnenswert, einen erneuten vergleichenden Blick auf Theorien, die angeblich unvereinbaren Diskursen zugehören, zu werfen. Dies kann am besten in Form eines lesenden Vergleichs konkreter Ansätze und Positionen erfolgen, um die Gefahr von Pauschalisierungen (siehe Shillingsburg), die im schlimmsten Fall den Blick verfälschen, abzuwehren. Auch wäre es wohl zum jetzigen Zeitpunkt zu früh und auch vermessen, eine Allgemeinaussage zu formulieren; stattdessen kommt es darauf an, weitere vergleichende Studien durchzuführen und – beispielsweise unter Verwendung einschlägiger digitaler Analysewerkzeuge und Tools – Theorien und Modelle noch stärker folienhaft übereinanderzulegen und vergleichend zu untersuchen.
Wie im Folgenden zu zeigen sein wird, bietet sich mit dem Modell der Textdynamik, wie es von Martens formuliert wurde, die Chance, ausgewählte Ansätze aus scheinbar unvereinbaren Traditionen herauszulösen und einander anzunähern, um schließlich auch neuen Fragen und eventuell sogar neuen Methoden den Weg zu ebnen. Dafür sind Blicke über den sprichwörtlichen Tellerrand unverzichtbar. Beispiele dieser Art sollen hier vorgestellt werden.
Die zweite Hypothese lautet, dass der Begriff der Textdynamik insbesondere dort interdisziplinäre wie interkulturelle Brücken bauen kann, wo er sich besonders gut auf den Editionsgegenstand anwenden lässt: im Umgang mit literarischen Texten der Moderne in einem weiteren Sinne,[12] also Texten, die sich durch ihre Offenheit und Wandelbarkeit auszeichnen, die einem (ab-)geschlossenen Kunstwerk zuwiderlaufen, formalen Experimentcharakter besitzen und die Entscheidung für einen ‚endgültigen‘, einzigen und ‚starren‘ Text zumindest fragwürdig erscheinen lassen. Das betrifft zum einen zahlreiche Texte der europäischen und nordamerikanischen Romantik, zum anderen Texte der Avantgarde bis hin zur Gegenwartsliteratur, zu denen sich quasi dank ihrer Experimentierfreude eine grobe Linie zu romantischen Schreibweisen ziehen ließe.[13] Es ist daher ganz bestimmt kein Zufall, dass ausgerechnet die angloamerikanische Romantikforschung eine Verbindung geschaffen hat zwischen der historisch-kritischen Art des Edierens mit einem spezifisch genetischen Interesse und den amerikanischen Editionstraditionen, die sich stark dem ‘copy-text editing’ verpflichtet fühlten, sich davon aber zunehmend kritisch emanzipieren.[14]
Die beiden Hypothesen seien daher folgendermaßen auf den Punkt gebracht:
Das Modell der Textdynamik vermag eine Vergleichbarkeit zwischen unterschiedlichen editionstheoretischen Traditionen und Ausrichtungen herzustellen, die auch für weitere Theoriebildungsprozesse förderlich sein kann.
Der Begriff der Textdynamik lässt sich insbesondere auf moderne (d. h. offene, unabgeschlossene) Texte anwenden und bietet hierin die interdisziplinäre wie interkulturelle Anschlussstelle.
Aus diesen Hypothesen leitet sich die folgende Vorgehensweise ab. Es sollen ausgewählte internationale editionswissenschaftliche Forschungspositionen zueinander in Beziehung gesetzt werden, die allesamt einen (explizit oder implizit formulierten) offenen Textbegriff im Sinne eines dynamischen, unabgeschlossenen Textes zur Voraussetzung ihrer Editionsprinzipien haben und sich diesbezüglich miteinander vergleichen lassen. Den Ausgang bildet dabei, wie schon erwähnt, das von Gunter Martens in Texte und Varianten vorgestellte Konzept der Textdynamik aus dem Kontext der Edition der Gedichte Georg Heyms.[15] Die anhaltende Wirksamkeit des von Gunter Martens und Hans Zeller 1971 herausgegebenen Sammelbands wurde auf der von Janina Reibold und Uwe Maximilian Korn verantworteten Heidelberger Tagung Fünfzig Jahre „Texte und Varianten“ am 9./10. September 2021 in den Vorträgen aus unterschiedlichen Perspektiven herausgearbeitet und gewürdigt. Bekanntgeworden ist der Band im deutschsprachigen Raum als Zusammenstellung wichtiger editionstheoretischer Positionen der 1960er Jahre, gewissermaßen als Zeitdokument und Beitrag zur Fachgeschichte. Auch im internationalen Kontext wurde er durchaus wahrgenommen; mit welcher Intensität und konkreten Wirkungskraft, wäre noch zu eruieren. Möglich wurde eine breitere Rezeption überhaupt erst durch die von Hans Walter Gabler erfolgte englische Übersetzung einiger Beiträge aus dem Band.[16] Es gibt, wie noch zu zeigen sein wird, Hinweise, dass Gunter Martens’ Modell der Textdynamik tatsächlich international breit rezipiert wurde, und zwar insbesondere von der Romantikforschung (siehe Hypothese 2). In welchem Ausmaß dies geschah, müsste jedoch erst einmal verbindlich festgestellt werden; vereinzelt finden sich jedenfalls Referenzen auf Martens in Forschungsbeiträgen aus dem angloamerikanischen und französischen Raum, wenn auch zumeist nur in Form knapper Verweise in den Fußnoten.
Merkmale von Martens’ Text-Modell sollen im vorliegenden Beitrag vorgestellt werden, um dann in einem zweiten Schritt aufzuzeigen, wo sich Anknüpfungspunkte (nicht nur) für die angloamerikanische Romantikforschung finden lassen (Hypothese 2). Neben grundsätzlichen Fragen der ‚Vereinbarkeit‘ der deutschsprachigen historisch-kritischen Editionstradition mit angloamerikanischen Modellen, die dem wirkungsreichen ‘Copy-text’-Verfahren verpflichtet sind, wird der Blick insbesondere auf Jerome McGanns Modell eines ‘social text’ geworfen, das zu großen Teilen auf D. F. McKenzies Bibliography and the Sociology of Texts (1985) basiert.[17] In einem dritten Schritt soll dann der Bogen zur aktuellen Diskussion über den Text- und Dokumentbegriff im Kontext des ‘genetic criticism’ geschlagen werden (Hypothese 1), konkret anhand eines von Dirk Van Hulle entworfenen Modells dynamischer Faksimiles, das den Textbegriff für ‘Born-digital’-Dokumente noch einmal grundlegend neu denkt.[18] Anhand von Van Hulles Ansatz soll aufgezeigt werden, wie vielfältig und adaptionsfähig[19] das Modell der Textdynamik ist und dass es geradezu notwendig ist, neue Texttheorien zu entwickeln, um eine Basis für das Edieren neuer Forschungsgegenstände[20] zu erhalten.
Textdynamik nach Gunter Martens
Gunter Martens definiert „Text als summarische und nicht als statische Größe“.[21] Alle Varianten werden in ihren Verhältnissen zueinander als Teil des Textes betrachtet;[22] es handelt sich um eine Vorstellung von einer Textdynamik im Sinne eines „Proze[sses], der tendenziell“ „niemals abgeschlossen“ ist.[23] Martens richtet den Blick vom Autor bzw. von der Autorin, der bzw. die eben nicht mehr als schöpferisch-genial zu betrachten sei, hin zum Text und erteilt gleichermaßen Siegfried Scheibes Position einer „historisch aufzufassende[n] Textentwicklung“,[24] die im selben Band publiziert wurde, eine Absage zugunsten einer Werkentwicklung als Textkriterium.
Eine Intention bleibt zwar erhalten, wird aber auf den Textbegriff übertragen: Text ist „auf ein intentionales Gebilde gerichtet.“[25] Dieser Vorstellung liegt ein Sprachverständnis zugrunde, das Sprache und Text als Ausdruck davon einerseits defizitär denkt, andererseits den historischen – und man kann hinzufügen: sozialen – Kontext von Sprache und Text mitdenkt und entsprechend Veränderungen als Teil der Definition begreift.[26]
Die Intentionalität als solche zeigt sich unter diesem Aspekt als variable Größe, abhängig von der Entwicklung des Autors, die wiederum im vielfachen Konnex mit der steten Veränderlichkeit der umgebenden historisch-gesellschaftlichen Situation steht. Die Textentwicklung wird entsprechend zu einem Vorgang, dem ein doppelter dynamischer Impuls zugrunde liegt, die dem Benennungsakt immanente Ausdrucksbewegung und die Veränderbarkeit des Benennenden wie auch des Benannten.[27]
Die ‚Sprachwerdung‘ eines Gedankens eines Autors kann sich in Form eines Textes also nur der Idee annähern – ein geradezu romantisches Statement. Entsprechend unterliegt der Text einer andauernden Dynamik. „Die Wiedergabe eines Textes in einer Edition wird gewissermaßen als ‚durch äußere Gegebenheiten‘ erzwungener Abschluss bewertet.“[28]
In diesem Sinne meint Text nicht mehr die einzelne schriftlich niedergelegte oder auf anderem Wege übermittelte Fassung einer Aussage, sondern den gesamten Vorgang, der mit dem ersten Gedanken, dem ersten gedachten oder geschriebenen Stichwort einsetzt und nur durch äußere Gegebenheiten einen Abschluß erfährt: durch den Entschluß des Autors, die Sprachwerdung abzuschließen, durch den Tod des Verfassers, durch das Desinteresse des rezipierenden Publikums; tendenziell ist dieser Prozeß niemals abgeschlossen: der Autor kann den Text zur erneuten Revision vornehmen, Freunde können nach dem Tod des Verfassers das Werk zu weiterer ‚Vollendung‘ führen, Literaturproduzenten und -rezipienten können in die überlieferte Textgestalt weiter eingreifen. Und es mag vielleicht nur die kulturgeschichtliche Tradition des Abendlandes sein, die die Ehrfurcht vor dem ‚Dichterwort‘ diktiert und eine spätere Veränderung der ‚autorisierten‘ Gestalt als ein Sakrileg verdammt.[29]
Im zitierten Abschnitt aus Martens’ Beitrag in Texte und Varianten wird sehr anschaulich beschrieben, dass es externe Bedingungen sind, die den Text zu einem Abschluss führen – dies hat auch Konsequenzen für das editorische Selbstverständnis. Es gilt diese zufälligen bzw. von äußeren Bedingungen abhängigen Instantiierungen von Text zu würdigen, also den (sozialen) Kontext miteinzubeziehen und sogar aufzuwerten, und zugleich die Angst vor dem Autor bzw. der Autorin zu verlieren. Folgerichtig wird der Apparat zum „Kernstück der Edition“.[30] Martens legt damit die Basis einer Theoretisierung der genetischen Edition, in der der „Textvarianz eine zentrale Rolle“[31] zukommt. Dieses Konstrukt eines stetig wachsenden bzw. sich wandelnden Textes[32] ist nicht grundlegend neu – auch Goethes Morphologie verweist als ein frühes prominentes Beispiel bereits in diese Richtung. Allerdings ist Goethes Modell teleologisch ausgerichtet und legt Naturgesetze des Wachstums bis zur Vollendung zugrunde,[33] wogegen sich Martens explizit richtet.[34] Wie Martens deutlich macht, ist der Prozess der Änderung eigentlich nie abgeschlossen und wird lediglich zufällig angehalten oder besser unterbrochen, denn er kann später fortgeführt werden. Bleibt man bei der Analogiebildung und dem Vergleich aufgrund von Metaphern aus den Naturwissenschaften, ließe sich hier eher Darwins Vorstellung von Evolution als stetig fortlaufendem Prozess ohne festes Ziel und Ende, geprägt vom Zufall, heranziehen. Martens selbst stellt seine Argumente auf die sprachwissenschaftlichen Neuerungen der 1960er Jahre.[35]
Unabgeschlossenheit meint aber nicht Beliebigkeit: Zugleich geht Martens nämlich von einer für die Edition begrenzten Zahl von Varianten – nämlich den zum Zeitpunkt überlieferten – aus. Damit werden also noch nicht die Grenzen der Edition hin zum Rezipienten bzw. zur Rezipientin gesprengt, wie es insbesondere angloamerikanische Ansätze radikaler weiterdenken.[36] Hervorzuheben in Martens’ Argumentation ist zudem, dass er sich gewissermaßen von der zwingenden Vollständigkeit der Variantenüberlieferung in einem positivistischen Verständnis ganz verabschiedet, da das Wissen über „die gesamten Veränderungen“ auch trotz Lücken editorisch erfassbar sei.[37] Martens prägt hier das bekannte poetische Bild, dass der Text „über die Kenntnis der gesamten Veränderungen“ „zum vollwertigen Partner im hermeneutischen Gespräch“ werde.[38] Eine interessante Parallele lässt sich in der aktuellen Forschung beobachten, in der auch für Editionen mit Unsicherheiten in Datierung und Überlieferung gearbeitet wird und dabei Modelle aus der mathematischen Risikoforschung herangezogen und mit Graphentechnologien[39] kombiniert werden.[40]
Text als soziales Phänomen
Es ist bereits angesprochen worden, dass Editionsprinzipien aus dem Kontext der deutschsprachigen Tradition historisch-kritischen Edierens in anderen Traditionen großenteils auf Unverständnis stießen (und es vielleicht noch tun). Die um Hans Walter Gablers genetische Ulysses-Edition[41] entbrannte Kontroverse im englischsprachigen Raum ist symptomatisch für dieses Nicht-Verstehen(-Wollen).[42] Gleichzeitig gibt es aber durchaus Übereinstimmungen in Editionsverfahren, die unterschiedlichen Traditionen zugehören. Für eine solch vermittelnde bzw. verbindende Position steht Jerome J. McGann, der auch zu den wenigen Verteidigern von Gablers Ulysses-Ausgabe im angloamerikanischen Raum gehörte.[43] Er nimmt diese Edition gleichsam als Folie für eine mögliche künftige Edition von Ezra Pounds The Cantos.[44]
Wo verortet sich McGann und welchen Textbegriff legt er seinem Ansatz zugrunde? McGann benennt als Impulse für seine Arbeit neben dem schon erwähnten McKenzie auch immer wieder Beiträge von Hershel Parker, G. Thomas Tanselle und Fredson Bowers. Und doch entwickelt er eine eigenständige Position, gewissermaßen aus seiner Erfahrung mit literarischen Texten des 19. Jahrhunderts heraus, insbesondere englischen und amerikanischen Romanen. Mit den Überlegungen Parkers übereinstimmend, emanzipiert sich McGann weitgehend vom ‘Copy-Text’-Verfahren. ‘Copy-Text’-Edieren, um das noch einmal in Erinnerung zu rufen, versteht sich als ‘bibliography’, als Buchkunde, die in Deutschland (noch immer) eher als Hilfsdisziplin bewertet wird, im angloamerikanischen Raum aber von zentraler Bedeutung für kritische Editionen ist. In der Tradition der Shakespeare-Forschung stehend, spielen Handschriften (überlieferungsbedingt) nahezu keine Rolle, von zentraler editorischer Bedeutung im Sinne von Textzeugen sind hingegen Erstdrucke.[45] Ziel ist es, einen auf „buchkundlicher Textkritik“ basierenden und „so erschlossenen Autortext zu edieren.“[46] Hans Walter Gabler beschreibt dieses editorische Verfahren wie folgt:
Der kritische Text anglistischer Definition ist ein idealer Text, insofern er als edierter Text keine materielle, existente Textgestalt darstellt. Dieser konzeptuelle Zugang entspricht dem gegenüber manuskriptüberlieferten antiken und mittelalterlichen Texten. Dem rückwärtsgewandten Denken nach gleicht das Bestreben, hinter die erhaltene Drucküberlieferung zum Autortext zurückzudringen, dem Perspektivieren einer Streuung erhaltener Handschriften auf einen dahinter angesetzten Archetyp. Das typische Stemma bei handschriftlich aus dem Mittelalter überlieferten Texten ist ein fächerförmiges. […] Das typische Stemma seit der Erfindung des Buchdrucks ist demgegenüber linear.[47]
McGann nutzt für den ‘copy-text’ und die vielfachen Textzeugen das Bild eines Planetensystems, in dem die verschiedenen Textzeugen um den idealen ‘copy-text’ herumkreisen.[48] Sich auf Hershel Parker berufend, argumentiert McGann, dass Drucke, anders als im ‘Copy-text’-Verfahren angelegt, auch anderen als nur den Einflüssen des Autors ausgesetzt sind. Sogar viele, teils nicht zu identifizierende Akteurinnen und Akteure sind an diesem Publikationsprozess beteiligt, sodass von einer “artistic integrity”[49] nicht mehr die Rede sein könne.[50] Auch und besonders müssen für McGann diese äußeren Faktoren für eine Edition berücksichtigt werden – darin ähnelt seine Position der von Gunter Martens. Zudem spielt die jeweilige Gattungszuordnung eine große Rolle hinsichtlich der Frage, wie und durch wen Texte entstehen und geprägt werden. So verweist McGann beispielsweise auf die kollektive Autorschaft von Dramen durch die Arbeitsbedingungen am Theater oder auch auf die gerade im 19. Jahrhundert bestehenden, teils parallelen Mehrfachpublikationen in Zeitschriften- und Buchform.[51] Bei traditionellen Überlieferungen wie Balladen, Volksliedern und dergleichen gehören stetige, nicht einzelnen Personen zuordenbare Eingriffe in die Texte quasi zu deren Wesensart.[52]
The universe of poiesis no more has an absolute center than does the stellar universe we have revealed through our astronomy. What it has are many relative centers which are brought to our attention by our own acts of observation. The universe of literature is socially generated and does not exist in a steady state. Authors themselves do not have, as authors, singular identities; an author is a plural identity and more resembles what William James liked to call the human world at large, multiverse.[53]
Literarische Texte sind zudem “polyvocal”[54] und damit gewissermaßen als Kollektivprodukt zu verstehen – auch bezogen auf deren Interpretierbarkeit. Literarische Texte werden für McGann einerseits durch Metaphern und Metonymie inhaltlich angereichert (“[a] thickened text”).[55] Sie werden ihm zufolge aber andererseits auch durch ihre “textual presence and activities of many nonauthoral agents” angereichert.[56] Von zwei Codes spricht McGann in diesem Zusammenhang: bei ersterer Anreicherung von “linguistic codes”, bei letzterer von “bibliographical codes”.[57] Die Entstehungs- und Disseminationsbedingungen durch Verlagswesen und Buchmarkt sind daher für ihn zentral für unsere Wahrnehmung von Texten. Materialität erhält hier also eine weitere Bedeutung, indem sie nicht nur Geltung für Handschriften erlangt, sondern auch für Drucke, und zwar über den Text hinausgehend die Gestaltung und Verbreitungsformen einbeziehend – und entsprechend wert- und vorurteilsfrei, muss man hinzufügen.[58] McGann spricht von der Signifikanz des “graphic material[ ]”, wie etwa Buchcovern.[59] Interessant ist nun, dass auch McGann – Martens ähnlich – von ‚Annäherungsversuchen‘ spricht, wenn er betont, dass in Editionen die historischen Kontexte, die sich im Material sozusagen manifestieren, späteren Generationen den damit verbundenen ‚ästhetischen und literarischen Horizont‘ anzudeuten vermögen.[60] McGann nennt das die “continuous socalization of the texts”.[61]
Welche Konsequenzen zieht McGann aus seinen Überlegungen einer Textsozialisation? Für unverzichtbar in kritischen Editionen hält auch er (wie Martens) den Apparat, der für die “linguistic codes” da sei.[62] Doch sind – und das ist als höher zu bewerten und unterscheidet den Ansatz dann wieder hinsichtlich der Priorisierung von demjenigen von Martens mit dem Apparat als „Kernstück der Edition“ – eben auch die bibliographischen Codes mitzuliefern, und das geschieht im ‚Archiv‘ mit diplomatischen Transkriptionen und Faksimiles.[63] Zudem prangert er das Versäumnis wissenschaftlicher Editionen an, die in den Dokumenten und der Materialität versteckte Ideologiegeschichte hervorzubringen.[64] Texte kritisch zu edieren, bedeutet also in doppelter Weise kritisch auf deren Überlieferung zu schauen, die die Texte erst zu denen macht, die wir lesen. Ein nochmaliger Blick zu Martens zeigt, dass in beiden Positionen die sozialen Faktoren des Textes (d. i. ihr Kontext) eine Aufwertung erfahren und der Text im Mittelpunkt steht, nicht der Autor bzw. die Autorin. Es geht nicht um die Einzigartigkeit eines Werks, sondern um kontextuell bedingte Änderungsvorgänge, die nicht im luftleeren Raum stattfinden können. Der Autor bzw. die Autorin ist ein mit der Umwelt interagierendes soziales Wesen. Kunst wird somit zwar individuell zustande gebracht, aber sie ist unabgeschlossen, kann jederzeit fortgesetzt werden durch externe Faktoren und ist damit als kollektiver Prozess dialektisch zum individuellen Schreibprozess zu denken. Die soziale Dimension von Texten hat ein dynamisches Textverständnis zur Bedingung.[65]
Zur visuellen Umsetzung von Textdynamik in Editionen
Ein drittes Modell soll abschließend in den Blick genommen werden, das ähnlich wie dasjenige von McGann die Entstehungsbedingungen von Texten einbezieht, aber doch noch weitergehende Konsequenzen für das Edieren skizziert. Es handelt sich um einen Theoriebeitrag Dirk Van Hulles zum Text- bzw. Dokumentbegriff.[66] Auch Van Hulle vertritt die Grundannahme einer Textdynamik, er stellt aber die Frage nach der Funktion und den Aufgaben von Editionen neu und geht damit einen Schritt weiter als Martens oder McGann. Van Hulle beobachtet den Trend, dass sich offensichtlich in der vielfältigen heterogenen digitalen Editionslandschaft doch als ein gewisser Standard herausgebildet habe, dass das Faksimile mit der dazugehörigen Transkription überall vorzufinden sei – unabhängig davon, welche zusätzlichen Features in digitalen Editionen dauerhaft Bestand haben werden.[67] Er nimmt diese Situation zum Ausgangspunkt, um zu fragen, was in diesem Verständnis eigentlich ein Dokument sei[68] und wie sich hier Schreib- oder besser Tippspuren überhaupt darstellen lassen. Van Hulles Lösungsvorschlag lautet wie folgt:
Whereas most digital editions nowadays show a static digital facsimile of a scan on one side and a static transcription next to it, the equivalent of a born-digital work’s genesis could present readers with a more dynamic presentation, linked to a static transcription. In this way, a scholarly editor can combine stasis with movement, a transcript of every version and a dynamic (filmic) visualization of all the keystrokes constituting a sentence.[69]
Damit vollzieht Van Hulle eine Übertragung des Begriffs der Textdynamik auf das Faksimile bzw. auf Dokumente. Die Transkription wird statisch, das Faksimile dynamisch. Dies stellt m. E. eine bedeutende Neuzuordnung der Funktionen von Faksimile und Umschrift dar – mit Folgen für den Textbegriff, aber auch ganz praktischen Konsequenzen für die Funktion von Editionen: War es ambitionierten Editionsprojekten wie der Heym- oder der Ulysses-Ausgabe nicht konsequent gelungen,[70] eine optimale Lösung für die Darstellung von Dynamik (Textgenese) zu entwickeln, setzt Van Hulle genau hier an und ‚entlastet‘ die Transkription von dieser offensichtlich schwierigen (unlösbaren?) Aufgabe. Die Transkription wird mittels ihrer Umwandlung in ein statisches Gebilde damit auch zitierbar – aus ganz praktischen Gründen bedeutet dies auch eine Aufwertung der Transkriptionen, denn Versuche einer interaktiv gestalteten Darstellung der Transkription genießen noch immer wenig Anerkennung in der Editionswissenschaft und werden eher ‚skeptisch beäugt‘.[71] Dies könnte sich mit der Umkehrung der Darstellung (von einem ‚eingefrorenen‘ Zustand hin zur dynamischen Darstellung) ändern. Bild wäre dann nicht gleich Bild – es wäre zu unterscheiden zwischen ‚etabliertem‘ unveränderten Faksimile und dynamisch-interaktiv bearbeitetem Faksimile. Es ließen sich in einer digitalen Edition mit ihrer (nahezu) unendlichen Möglichkeit der Erweiterung (die die gedruckten Ausgaben aufgrund des begrenzten Raums nicht hatten) problemlos beide Faksimiletypen (statische wie dynamische) unterbringen – das statische im (digitalen) Archiv einer Edition, wohingegen sich die von Van Hulle vorgeschlagene dynamische Darstellung eines digitalen Faksimiles je nach Aufbau und Struktur einer solchen Edition eher dem Bereich der Genese/Textdarbietung o. Ä. zuordnen ließe. Die derzeitige Vorstellung von Materialität im editionswissenschaftlichen Kontext gilt es in diesem Zusammenhang neu zu diskutieren. Dies wäre auch konsequent angesichts der zunehmenden Veränderung des ‚Schreib‘-Materials: Neben in physischen Archiven und Bibliotheken liegenden Handschriften, Typoskripten und Büchern finden sich immer mehr Formate jenseits des Papiers, etwa Audioaufnahmen/Tonspuren, digitale Zeugnisse von Autorschaft auf dem Rechner, der Festplatte, im Archiv oder anderswo, online archivierte Beiträge in sozialen Medien usw. Van Hulles Vorschlag einer Dokumentdynamik würde also auch den Diskussionsstand zum Materialbegriff auf die Probe stellen. Er selbst geht in seiner Theoriebildung von seinem konkreten Editionsgegenstand aus (‘born-digital documents’), um anhand konkreter Umsetzungsprobleme generelle editionswissenschaftliche Prämissen zu prüfen und weiterzudenken, schließlich umzustellen und damit einen Beitrag zur Editionstheorie zu liefern.[72] Weiter heißt es bei Van Hulle:
The static visualization enables macrogenetic analysis (examining the genesis of the work in its entirety across multiple versions) and microgenetic research (the processing of a particular source text; the revision history of one specific textual instance across versions; revisions dynamic within one single version) while the dynamic visualization facilitates especially microgenetic and even nanogenetic analysis (relating to revisions on the level of the character, the individual keystroke or mouseclick).[73]
Statik und Dynamik stellen also für Van Hulle zwei Umsetzungsformen in der Edition dar, die Analysen und weitere Untersuchungen überhaupt erst ermöglichen – und das für die genannten drei Ebenen samt der von ihm neu eingeführten Nanoebene innerhalb und unterhalb eines Satzes.[74] Damit reagiert Van Hulle (bewusst?) auch auf die immer wieder vorgebrachten Vorwürfe, die Werkgenese lasse sich nicht mit den Visualisierungsmöglichkeiten der genetischen Ausgabe (wie der Heym-Ausgabe) darstellen, lediglich lokal gebundene Änderungen innerhalb der Textgenese seien visualisierbar.
Van Hulles Prägung durch die ‹critique génétique› ist unverkennbar. Mit der Skizzierung eines Modells der Dokumentdynamik baut er zugleich die Brücke zu Martens’ Modell der Textdynamik und erweitert dieses Modell um Aspekte der Darstellungsmöglichkeiten. Der dynamische Textbegriff wird grundsätzlich beibehalten, wenn man ihn auf den Editionsgegenstand selbst bezieht; bezogen auf die Darstellungsformen in der Edition hingegen wird der Text statisch, um – und das klingt zunächst noch paradox – Werkgenese nachvollziehbar zu machen.[75] Mit dem Hinweis auf ‘versions of a text’ ist auch eine Brücke geschlagen zu angloamerikanischen Modellen, insbesondere zu Donald Reimans Ansatz des “Versioning”[76] als Editionstyp. Reiman plädiert für das Edieren von verschiedenen Fassungen eines Textes und wertet Fassungen damit gegenüber dem ‘copy text’ auf. Der Leserschaft bietet er so die Möglichkeit des vergleichenden Lesens und Analysierens, um gerade auch miteinander inkompatible Fassungen prinzipiell zugänglich zu machen, statt sie in einem ‘copy text’ als nicht mehr rekonstruierbar zu verarbeiten.[77]
Fazit
Die künftige Edition von ‘born-digital works’, so die Überlegungen Van Hulles, ermöglicht also neue Funktionszuschreibungen für Faksimile und Transkription. Damit ahmt sie nicht einfach Druckausgaben nach, sondern entwickelt eigene originelle Darstellungsformen, die sich – das wäre eine weiterführende Diskussion wert (s. o.) – auch auf ‚traditionellere‘ Editionsgegenstände übertragen ließen. Van Hulle versteht die wissenschaftliche Edition als Werkzeug, “as an embodied argument about the work instead of seeing the edition only as a presentation or representation of the work”, und er kommt zu dem Schluss, “that the work of literature cannot be reduced to just a static text. What we read at any given moment is only an instantiation of a dynamic process.”[78] Mit dieser Aussage sind wir wieder bei Martens, der gleichermaßen jede Wiedergabe eines Textes als eine solche plötzliche Instantiierung – bedingt durch externe (d. h. außerhalb der Textentstehung zu verortende) Faktoren – beschreibt. Es gilt den Text in einer Edition als Momentaufnahme zu betrachten und als mehr oder weniger zufälliges, in jedem Fall historisch zu kontextualisierendes Produkt anzuerkennen, aber zugleich den Anspruch zu haben, darüber hinaus in der Edition auf die größeren Werkzusammenhänge zu verweisen. Dies muss in Abhängigkeit von den Entstehungs- und Verbreitungsbedingungen von Literatur geschehen – vom Federkiel über die Schreibmaschine zum Computer sind die technischen Grundbedingungen gegeben –, aber eben auch in Abhängigkeit von den Bedingungen, unter denen eine Edition entsteht. Der Textbegriff sollte daher weiterhin als dynamisch verstanden werden, hinter diesen Erkenntnisstand sollte man nicht zurückfallen. Es gilt ihn nun verstärkt auf neue Phänomene der Literatur gewinnbringend anzuwenden und aus ihm geeignete Editionsmodelle abzuleiten.
Eine tabellarische Übersicht fasst noch einmal zentrale Positionen der drei vorgestellten Textmodelle vergleichend zusammen.
|
|
Gunter Martens 1971 |
Jerome J. McGann 1985 |
Dirk Van Hulle 2021 |
|
Ausgangssituation: konkreter Editionsgegenstand |
vor allem deutschsprachige Gedichte der Moderne |
vor allem englische und amerikanische Romane des 19. Jahrhunderts; auch Texte mit kollektiver oder unbekannter Autorschaft |
digitale Texte (‘born-digital’) |
|
Textbegriff |
Text ist dynamisch |
||
|
|
Varianten sind fester Bestandteil eines Textes |
Text wird kontinuierlich fortgeführt als soziales Phänomen |
|
|
Was bedeutet Textdynamik? |
Textdynamik ist immer gegeben, Publikation/Edition ist als ‚Unterbrechung‘ dieses Prozesses zu bewerten; Textdynamik ist auch in der Edition abzubilden (synoptischer Apparat) |
Textdynamik ist immer in modernen Texten gegeben, insbesondere bei der Dissemination (rezeptionsästhetisches Argument) |
Textdynamik als kreativer Entstehungsprozess; vor allem aber Dynamik des Faksimiles = Darstellungsform in Edition (‘keystroke logging’) |
|
Ein edierter Text ist … |
… nur eine Instanz innerhalb eines fortlaufenden Prozesses |
||
|
Dynamik von Texten ist gekoppelt an … |
… den historischen Kontext |
… den historischen Kontext |
… den Schreib-/Tippprozess |
|
Textgenese als Prozess (Dynamik) wird in der Edition … |
… in Form eines synoptischen Apparats für die Rekonstruktion der Mikrogenese dargestellt |
|
… im Faksimile (Dokumentdynamik) für die Rekonstruktion der Mikrogenese und der Nanogenese (von ‘small texual units’) dargestellt |
|
Werkgenese |
… ist von Interesse, kann aber nicht im Apparat abgebildet werden |
… als Ideologiekritik |
… erfolgt als statische Darstellung in der Transkription |
|
Darstellung/Verortung von Varianz |
Varianten gehören zum Text und werden in einem synoptischen Apparat abgebildet |
‘linguistic codes’ werden in einem Apparat aufgeführt; ‘bibliographical codes’ gehören zum Werk und sind auf den Faksimiles und in diplomatischen Umschriften sichtbar (‚Archiv‘) |
Schreibprozesse erfolgen als Tippprozesse und werden in einem dynamischen Dokument (Faksimile) nachvollzogen |
|
Kernstück der Edition |
Apparat (+ Text) = Konzentration auf Mikrogenese |
Archiv (+ Apparat); ‘bibliographical codes’ mittels Faksimile und Transkription |
Faksimile und Transkription als feste Bestandteile einer Edition (kein separater Apparat) |
Allen drei Ansätzen liegt ein dynamisches Verständnis von Text zugrunde, auch wenn die Ausgangssituation jeweils eine andere ist (gemeinsam haben die edierten Texte lediglich, dass sie moderne Texte im weiteren Sinn sind). Unterschiedlich gewichtet ist der Editionsschwerpunkt: So sind Darstellungsformen von Varianz auf der Ebene der Mikrogenese (und/oder der Nanogenese) grundsätzlich gut darstellbar: in konventionellen Apparaten (McGann), in für die Genese weiterentwickelten Apparaten (Martens) oder im dynamisch gestalteten Faksimile (Van Hulle). Die Werkgenese wird in allen drei Ansätzen für wichtig befunden, doch fehlt es z. T. an Möglichkeiten der adäquaten Umsetzung, woraus Van Hulle den Schluss zieht, die Situation umzukehren und die Makrogenese statisch darzustellen. Die Gegenüberstellung macht noch einmal deutlich, dass es keine unüberwindbaren Grenzen für neue Textmodelle gibt, dass es im Gegenteil von hohem Mehrwert ist, über den eigenen Tellerrand zu schauen. Gerade für die Darstellung von Textdynamik in Editionen bieten sich jetzt, mehr als ein halbes Jahrhundert nach Martens’ Beitrag im Band Texte und Varianten, dank des digitalen Mediums grundlegend neue Möglichkeiten, auch und gerade jenseits des Apparats.
© 2024 bei den Autoren, publiziert von Walter de Gruyter GmbH, Berlin/Boston
Dieses Werk ist lizensiert unter einer Creative Commons Namensnennung 4.0 International Lizenz.
Articles in the same Issue
- Titelseiten
- Hin und zurück?
- Transformation und Reduktion von Aufführungswirklichkeit
- Kants Critik der Urtheilskraft – neu ediert
- Kompilation, Transformation, Edition
- Sorabistische Editionspraxis
- Authentische Fassung oder editorisches Konstrukt?
- Edition von frühdigitalem Text: Ein Problemaufriss
- Die interoperable Edition ‚sub specie durationis‘
- Von OCR und HTR bis NER und LLM
- Beiträge aus der Tagung „Fünfzig Jahre ‚Texte und Varianten‘ “ (II)
- Text als System
- Das Modell der Textdynamik und sein Potential für eine Editionswissenschaft jenseits der ‚Schulen‘
- Historisch-kritisch edieren
- Chronologie, Schichtung, Korrektur: Heiner Müllers Nachlass als Herausforderung seines eigenen Werkverständnisses
- Zur Rezeption von (historisch-)kritischen Ausgaben in der aktuellen germanistischen Forschung
- Berichte
- Wandel, Wert und Wirkung von Editionen. 50 Jahre Arbeitsgemeinschaft philosophischer Editionen. Tagung an der Bergischen Universität Wuppertal, 20.–22. September 2023
- Digitales Edieren gestern, heute und morgen. Tagung an der Herzog August Bibliothek, Wolfenbüttel, 25./26. September 2023
- Rezensionen
- Genetic Criticism in Motion. New Perspectives on Manuscript Studies. Hrsg. von Sakari Katajamäki und Veijo Pulkkinen, Associate Editor: Tommi Dunderlin. Helsinki: Finnish Literature Society, SKS 2023 (Studia Fennica. Litteraria. 14), 183 S., auch digital im ‘open access’ zugänglich: https://doi.org/10.21435/sflit.14.
- Philip Kraut: Die Arbeitsweise der Brüder Grimm. Stuttgart: S. Hirzel Verlag 2023, 353 S., auch digital im ‘open access’ zugänglich: https://doi.org/10.3813/9783777633954.
- Mitteilung
- … herausgegeben von … Editores und Edenda
- Anschriften
- Anschriften
- Formblatt zur Einrichtung satzfertiger Manuskripte
- Formblatt zur Einrichtung satzfertiger Manuskripte
Articles in the same Issue
- Titelseiten
- Hin und zurück?
- Transformation und Reduktion von Aufführungswirklichkeit
- Kants Critik der Urtheilskraft – neu ediert
- Kompilation, Transformation, Edition
- Sorabistische Editionspraxis
- Authentische Fassung oder editorisches Konstrukt?
- Edition von frühdigitalem Text: Ein Problemaufriss
- Die interoperable Edition ‚sub specie durationis‘
- Von OCR und HTR bis NER und LLM
- Beiträge aus der Tagung „Fünfzig Jahre ‚Texte und Varianten‘ “ (II)
- Text als System
- Das Modell der Textdynamik und sein Potential für eine Editionswissenschaft jenseits der ‚Schulen‘
- Historisch-kritisch edieren
- Chronologie, Schichtung, Korrektur: Heiner Müllers Nachlass als Herausforderung seines eigenen Werkverständnisses
- Zur Rezeption von (historisch-)kritischen Ausgaben in der aktuellen germanistischen Forschung
- Berichte
- Wandel, Wert und Wirkung von Editionen. 50 Jahre Arbeitsgemeinschaft philosophischer Editionen. Tagung an der Bergischen Universität Wuppertal, 20.–22. September 2023
- Digitales Edieren gestern, heute und morgen. Tagung an der Herzog August Bibliothek, Wolfenbüttel, 25./26. September 2023
- Rezensionen
- Genetic Criticism in Motion. New Perspectives on Manuscript Studies. Hrsg. von Sakari Katajamäki und Veijo Pulkkinen, Associate Editor: Tommi Dunderlin. Helsinki: Finnish Literature Society, SKS 2023 (Studia Fennica. Litteraria. 14), 183 S., auch digital im ‘open access’ zugänglich: https://doi.org/10.21435/sflit.14.
- Philip Kraut: Die Arbeitsweise der Brüder Grimm. Stuttgart: S. Hirzel Verlag 2023, 353 S., auch digital im ‘open access’ zugänglich: https://doi.org/10.3813/9783777633954.
- Mitteilung
- … herausgegeben von … Editores und Edenda
- Anschriften
- Anschriften
- Formblatt zur Einrichtung satzfertiger Manuskripte
- Formblatt zur Einrichtung satzfertiger Manuskripte