Home One man’s surprise is another man’s analysis: Warum Regierungen überrascht werden und was man dagegen tun kann
Article Open Access

One man’s surprise is another man’s analysis: Warum Regierungen überrascht werden und was man dagegen tun kann

  • Peter Eitel EMAIL logo
Published/Copyright: September 9, 2022

Kurzfassung

Der russische Angriff auf die Ukraine am 24.02.2022 kam für viele überraschend – obwohl es an Warnungen nicht gefehlt hatte. Ein wesentliches Merkmal der aktuellen Debatte in Deutschland ist der Verweis auf diesen Widerspruch. Dabei wird jedoch nicht diskutiert, ob dieser Widerspruch nur im konkreten Einzelfall bestand, oder ob es sich hier um ein möglicherweise häufiger auftretendes Phänomen handelt. Daran wird deutlich, dass die hiesige Debatte ohne Kenntnis des Forschungsstandes zum Phänomen der Überraschung geführt wird, in der diese Frage eine zentrale Rolle spielt. Hier stehen drei Fragen im Mittelpunkt: (1) warum kommt es dazu, dass Regierungen überrascht werden? (2) Gibt es wiederkehrende oder strukturelle Faktoren, die die Anfälligkeit oder Wahrscheinlichkeit, Opfer eine Überraschung zu werden erhöhen? (3) Können Überraschungen in der Zukunft verhindert werden? Der folgende Beitrag diskutiert die von der Forschung identifizierten Faktoren ebenso wie die Frage, ob sich Überraschungen in der Zukunft verhindern lassen. Dabei kommt er zu dem Schluss, dass auch in Zukunft mit Überraschungen zu rechnen ist. Vor diesem Hintergrund gibt er Empfehlungen, die die Anfälligkeit für Überraschungen verringern können, und die Resilienz bei Eintreten unerwarteter Ereignisse erhöhen.

Abstract

The Russian attack on Ukraine on 24 February came as a surprise to many – although there had been no lack of warnings. A key feature of the current debate in Germany is the reference to this contradiction. However, there is no discussion of whether this contradiction only exists in a specific individual case or is an essential feature of surprises when they befall governments. This makes it clear that the German debate is conducted without knowledge of the state of research on the phenomenon of surprise, in which this question plays a central role. Three questions are central here: (1) why do governments get surprised? (2) Are there recurrent or structural factors that increase the vulnerability or likelihood of becoming a victim of surprise? (3) Can surprises be prevented in the future? The following article discusses the factors identified by research as well as the question of whether surprises can be prevented in the future. It comes to the conclusion that surprises can also be expected in the future. Against this background, he makes recommendations that can reduce vulnerability to surprises and increase resilience when unexpected events occur.

1 Einleitung

Die deutsche Bundesregierung ist in den vergangenen zehn Jahren mehrfach von strategischen Entwicklungen überrascht worden, wobei drei in der aktuellen sicherheitspolitischen Debatte eine besondere Rolle spielen: (1) die russische Annexion der Krim im März 2014, (2) die Übernahme der Macht durch die Taliban nach dem Abzug der internationalen Truppen aus Afghanistan im Sommer 2021 sowie (3) der russische Überfall auf die Ukraine am 24.Februar 2022[1].

Strategische Überraschungen sind die plötzliche Realisierung, dass Regierungshandlungen bis zum Überraschungseintritt auf falschen Annahmen über mögliche Entwicklungen in der Zukunft fußten. Dabei ist es regelmäßig der Fall, dass der Regierung im Vorfeld Informationen vorlagen, die auf die Wahrscheinlichkeit des bis zum Eintritt als unwahrscheinlich erachteten Ereignisses hinweisen konnten. So findet sich für jedes trojanischen Pferd auch eine Nemesis.

Die Frage, warum Regierungen überrascht werden, obwohl ihr Informationen vorlagen, die auf eine solche Eventualität hinwiesen, ist in der strategiewissenschaftlichen Literatur seit vielen Jahrzehnten ein Dauerthema – außer in Deutschland. Hier – und das zeigt auch die aktuelle Debatte – begnügt man sich mit der Frage, diejenigen zu suchen, deren Fehleinschätzung durch den Eintritt der Überraschung sichtbar wurde. Dabei wird aus der einschlägigen Literatur klar, dass dies nicht nur selbstgerecht, sondern auch müßig ist – für die Verhinderung von unerwarteten Ereignissen in der Zukunft ist es jedenfalls nur bedingt hilfreich. Denn bei der Aufarbeitung warum ein Staat und seine Regierung „kalt erwischt“ wurden, handelt es sich keineswegs um die triviale Frage, wer in der Rückschau recht hatte, sondern eine ausgesprochen komplexe, und für alle Beteiligten schmerzhafte Auseinandersetzung mit einer Vielzahl von Fehleinschätzungen, wie Thomas J. Schelling in seiner Einleitung zu Roberta Wohlstetters bahnbrechender Studie „Warning and Decision“ feststellte:

„Wenn eine Regierung überrascht wird, ist das eine komplizierte, diffuse, bürokratische Angelegenheit. Dazu gehört die Vernachlässigung der Verantwortung, aber auch, dass die Verantwortung so schlecht definiert oder so unklar delegiert wurde, dass die Fähigkeit zu Handeln verloren ging. Dazu gehören Lücken in den vorhandenen Informationen, aber auch Informationen, die wie eine Perlenkette, die zu kostbar ist, um sie zu tragen, zu sensibel waren, um sie denen zu geben, die sie gebraucht hätten. Dazu gehört der Alarm, der nicht funktioniert hat, aber auch der Alarm, der schon so oft ausgelöst wurde, dass er nicht mehr funktionierte. Dazu gehört der unaufmerksame Wachmann, aber auch derjenige, der wusste, dass sein Vorgesetzter ihm den Marsch blasen wird, wenn er die höhere Behörde aus dem Bett holt. Dazu gehören die Unwägbarkeiten, die niemandem einfielen, aber auch die, von denen jeder annahm, dass sich jemand anderes darum kümmert. Dazu gehört das einfache Zögern, aber auch Entscheidungen, die durch interne Unstimmigkeiten in die Länge gezogen wurden. Dazu gehört auch die Unfähigkeit einzelner Menschen, sich der Situation zu stellen, bis sie sicher waren, dass es die Situation ist – und das ist in der Regel zu spät. (Anders als in Filmen gibt es im wirklichen Leben keine musikalische Untermalung, die uns auf den Höhepunkt hinweist.) Schließlich kann die Überraschung, wie in Pearl Harbor, ein gewisses Maß an echter Neuheit beinhalten, die vom Feind eingeführt wurde, und möglicherweise auch schieres Pech.“[2]

Eine allgemein anerkannte Definition für „Regierungsüberraschungen“ gibt es nicht. Gemeinhin versteht man in der Forschung darunter die plötzliche Erkenntnis einer Regierung, dass es sich dabei um ein Ereignis oder eine Entwicklung infolge falscher, fehlerhafter oder unvollständiger Annahmen handelt. Der Effekt einer solchen Erfahrung ist psychologisch, und er ist temporär. Wer plötzlich feststellt, dass die zentralen Annahmen, die sein bisheriges Handeln leiteten, unwiderruflich widerlegt werden, verliert die Balance. Der psychologische Zustand des Überraschtseins lässt sich am besten als Eintreten eines gewissen Chaos beschreiben. Allerdings ist dieser Zustand temporär. Doch bedarf es einer Kraftanstrengung, die Balance zurückzuerlangen.[3] Und dazu braucht es Lern- und Anpassungsfähigkeit.

Im Gegensatz zum angelsächsischen Sprachraum spielt die Überlegung, warum Regierungen überrascht werden und was man dagegen tun könnte, in der deutschen außen- und sicherheitspolitischen Debatte eine untergeordnete Rolle.[4] Es findet sich nur wenig Literatur zu diesem Thema.[5] Die folgenden Ausführungen geben einen Überblick über den im Verlauf von Jahrzehnten gewachsenen internationalen Forschungsstand, um so einen Beitrag zur Versachlichung der notwendigen Reflexions- und Anpassungsprozesse zu leisten.[6]

2 Überraschung als Gegenstand der strategischen Debatte

Im vornuklearen Zeitalter drehte sich die strategische Debatte vor allem um die Frage, ob Überraschung einen Krieg zu entscheiden vermag.[7] Es ging um die Frage, ob das Überraschen des Gegners entscheidend für den Ausgang eines Krieges zu sein vermag. Im Kern ging es darum zu klären, ob eine „strategische Überraschung“ möglich sei.[8] Die Frage, warum Regierungen immer wieder von unerwarteten Ereignissen und Entwicklungen überrascht werden, rückte erst mit dem Eintritt ins nukleare Zeitalter und dem beginnenden Kalten Krieg ins Zentrum der strategischen Debatte.[9] Den Anstoß zur umfangreichen akademischen Auseinandersetzung während des Kalten Kriegs in strategischen Studien und Intelligence Studies[10] gab Roberta Wohlstetters Warning and Decision, das 1962 erschien und untersuchte, warum es zum Überraschungsangriff auf Pearl Harbor kommen konnte.[11]

Mit dem Ende des Kalten Kriegs und einem vermeintlichen „Ende der Geschichte“ schwand das Interesse am Phänomen der Überraschung. Erst unter dem Eindruck der Finanzkrise sowie der russischen Annexion der Krim, dem BREXIT, dem Abzug aus Afghanistan, der Wahl Donald Trumps 2016 und dem russischen Überfall auf die Ukraine findet das Thema, warum Regierungen überrascht wurden und werden und was sich dagegen unternehmen lässt, wieder mehr Beachtung. Dies entspricht der Tendenz, dem Thema immer dann besondere Beachtung zu schenken, wenn ein unerwartetes Ereignis von großer Tragweite eingetreten ist. Die Vielzahl derartiger Ereignisse, und die umfangreiche Diskussion, die dies nach sich zog, macht die Tatsache, dass es hierzu keine deutschsprachigen oder Deutschlandbezogenen Beiträge gibt, umso bemerkenswerter.

3 Warum Regierungen überrascht werden

Zentrales Problem der wissenschaftlichen wie praktischen Durchdringung des Phänomens der Überraschung ist, dass diese erst dann sichtbar wird, wenn „das Kind bereits in den Brunnen gefallen“ ist. Hinzu kommt, dass allen untersuchten Fällen gemein ist, dass das unerwartete Ereignis eintrat, obwohl der Regierung Informationen vorlagen die vor einer solchen Möglichkeit warnten. Im Kern der wissenschaftlichen Auseinandersetzung ging es daher um die Klärung des Widerspruchs zwischen verfügbaren und vorhandenen Informationen einerseits und der zutage getretenen Unvorbereitetheit der Regierung andererseits. Insgesamt hat die Forschung zwei Faktorenkategorien identifiziert, die dazu beitragen, dass an fehlerhaften Prämissen festgehalten wird: individuell-psychologische und strukturell organisatorische. Zu dieser Gruppe lassen sich auch die Faktoren zählen. In diesem Zusammenhang sind auch Faktoren einzubeziehen, die sich aus der besonderen Rolle von Nachrichtendiensten bei Verhinderung und Eintritt unerwarteter Ereignisse in den Intelligence Studies geschenkt wurde.[12] Dabei wurde festgestellt, dass die Ursachen für Fehleinschätzungen sowohl bei den professionellen „Mahnern“ zu finden sind, die in ihrer Funktion als Regierungsmitarbeiter mögliche negative Entwicklungen hätten voraussehen und auf diese hinweisen müssen, als auch bei den „Entscheidern“, die auf Grundlage bereitgestellter Informationen qua Amt Entscheidungen treffen.

3.1 Allgemeine Ursachen

Hier geht es um „die Art und Weise, wie Menschen sowie von Menschen gebaute und genutzte Maschinen Daten verarbeiten“[13], ein Faktor, der „Mahner“ und „Entscheider“ gleichermaßen beeinflusst. Dieser „menschliche Faktor“, der zur Anfälligkeit für Überraschungen beiträgt, verwischt die Grenzen zwischen Warnung und Überraschung, da sowohl für nachrichtendienstliches als auch für politisches Versagen am Ende Menschen verantwortlich zeichnen. Wo jedoch die Hauptverantwortung liegt, ist umstritten. Während einige meinen, Überraschung werde durch ein Versagen der Warnung verursacht, ist es laut anderen das Versagen der Entscheidungsträger, auf die Warnung hin zu handeln, das den Ausschlag gibt.[14] Letztere argumentieren, dass „Warnung nichts bedeutet, wenn die Entscheidungsträger nicht auch handeln.“[15]

Der menschliche Faktor beeinflusst ebenso die Personen, die für die Warnung verantwortlich sind, wie jene, die auf die Warnung hin handeln. Einen wichtigen Beitrag zum besseren Verständnis der Auswirkungen des menschlichen Faktors leisteten Robert Jervis‘ Erkenntnisse über die Rolle von Wahrnehmungen und Fehlwahrnehmungen in der internationalen Politik und sein Hinweis auf die Auswirkungen kognitiver Verzerrungen auf die internationale Politik.[16] Zu den neueren Autoren gehören Daniel Kahnemann und Phillip Tetlock, die in ihren Arbeiten die menschliche Neigung zu mentalen Abkürzungen hervorheben und aufzeigen, wie diese die Bewertung eingehender Informationen und Daten verzerrt. Das menschliche Wesen[17]:

  • konzentriere sich auf bereits vorhandene Informationen, ohne zu bedenken, welche zusätzlichen Informationen wichtig sein könnten,

  • neige dazu, nach Informationen zu suchen, die bestehende Annahmen bestätigen,

  • überschätze seine Fähigkeit, Ereignisse zu kontrollieren, und schließe den Einfluss des Zufalls aus,

  • neige dazu, sich auf das zu konzentrieren, was als normal angesehen wird, und schaffe so Pfadabhängigkeiten, die mögliche Alternativen oder Störungen (d. h. Überraschungen) außer Acht lassen.

Demzufolge werden alle Informationen und Daten durch eine Reihe von Filtern verarbeitet – „ein Wahrnehmungsprisma, das aus […] Kultur, Annahmen, Vorurteilen und Erfahrungen besteht.“[18] Die Forschung über die Ursachen für Überraschungen von Regierungen erachtet diese menschlichen „Filter“ als hauptverantwortlich für den Widerspruch zwischen theoretisch vorhandener Warnung und ausgebliebener Handlung, also der im Moment der Überraschung sichtbar werdenden Unvorbereitetheit. Da diese Filter ‚Warner‘ und ‚Entscheider‘ gleichermaßen beeinflussen, sind die Probleme und Herausforderungen für beide untrennbar verbunden.[19]

Abb. 1: Model for Processing and Ordering Information; Quelle: Kass/London 2013, 70.
Abb. 1:

Model for Processing and Ordering Information; Quelle: Kass/London 2013, 70.

Abbildung 1 veranschaulicht den Prozess, wie der Mensch eingehende Informationen verarbeitet, und hebt die Schritte in diesem Prozess hervor, in denen Informationen üblicherweise verloren gehen.

Ebenso wichtig wie der menschliche Faktor sind strukturelle Filter, die die Bewertung eingehender Informationen beeinflussen. Strukturelle Filter sind nicht nur auf den Einzelnen beschränkt, sondern werden, wie die Untersuchung komplexer Organisationen zeigte, durch deren Mechanismen und Dynamiken noch verstärkt. Die Forschung hat mehrere strukturelle Filter in großen Organisationen ermittelt, die zur Anfälligkeit für Überraschungen beitragen. Insbesondere Hierarchie, Spezialisierung, Zentralisierung und regulierte Verhaltensmuster (wie Standard Operating Procedures) „verzerren die Erfassung, Bewertung, Verbreitung und Nutzung strategischer Warnungen.“[20]

Irving Janis stellte fest, dass Gruppen dazu neigen, Konflikte zu vermeiden und einen Konsens zu erreichen, ohne ihre Handlungsoptionen ausreichend zu testen und zu bewerten – ein Phänomen, das als Group Think bekannt ist. Laut Tetlock wirkt sich psychologischer Konformitätsdruck häufig negativ auf die Reichweite des Denkens aus, führt Voreingenommenheit in die Analyse ein und bestraft individuelles und unabhängiges Denken.[21] Gruppendenken bewirke, dass es die Wahrscheinlichkeit einer ungenauen Analyse der verfügbaren Informationen erhöhe. Außerdem könne die eingeschränkte Möglichkeit der Selbstreflexion zu unangemessenen oder sehr riskanten Handlungsweisen führen.

3.2 Nachrichtendienstspezifische Probleme

Gerade in der Forschung zu nachrichtendienstlichen Problemstellungen hat das Thema Überraschung eine besondere Rolle. Das verwundert nicht, wurde doch der weltweit führende Nachrichtendienst, die Central Intelligence Agency (CIA), mit dem Ziel gegründet, dass die US-Regierung keinen Überraschungen zum Opfer fällt. Wenngleich die oben beschriebenen allgemeinen Faktoren, die die Anfälligkeit für Überraschungen erhöhen, auch für die nachrichtendienstliche Arbeit gelten, spielen diese eine besondere Rolle bei der Verhinderung von unerwarteten Entwicklungen mit negativen Konsequenzen.

Die Untersuchung der Rolle und Aufgabe von Nachrichtendiensten im Allgemeinen und der Art und Weise, wie sowohl die Beziehung zur Politik als auch die spezifischen internen strukturellen Filter ihre Arbeit beeinflussen, führte zur Identifizierung von nachrichtendienstspezifischen Ursachen für Überraschungen.

Das „Signal-to-Noise“-Problem: Die wichtigste, alltägliche Hürde bei der Produktion und der Nutzung nachrichtendienstlicher Informationen ist ein Problem, das Roberta Wohlstetter Signal to Noise nennt.[22] Man kann es als die grundlegende Schwierigkeit des Analysten ansehen, denn: Genaue und relevante Informationen oder Signale sind in ungenaue oder irrelevante Informationen oder Rauschen eingebettet. Die Herausforderung für Geheimdienstanalysten besteht darin, die Signale korrekt vom Rauschen zu unterscheiden. Das müssen sie allerdings in Anbetracht der Ungewissheit tun, die der Zukunft innewohnt.

Das Cry-Wolf-Syndrom: Das Cry-Wolf-Syndrom bezeichnet den Effekt eines wiederholten falschen Alarms. Ein zu häufig gemeldeter „unmittelbar bevorstehender Angriff“ verliert seinen Schrecken – und erhöht die Gefahr, dass dann, wenn wirklich Gefahr im Verzug ist niemand reagiert. Doch nicht nur verliert die Warnung vor einem Angriff ihre Wirkung, sondern auch der professionelle Warner sein wichtigstes Gut: seine Glaubwürdigkeit.

Das Problem der Abschottung: Abschottung ist ein weiteres nachrichtendiensttypisches Problem. Aufgrund des vertraulichen Charakters der Arbeit der Nachrichtendienste gelten besondere Beschränkungen für die Zusammenführung und den Austausch von Informationen oder die Einbeziehung externer Ansichten. Verfügbare Warnungen werden womöglich nicht genutzt, weil sie nicht zur Verfügung gestellt wurden. Auch besteht die Gefahr, dass widersprüchliche Informationen nicht in ausreichendem Umfang berücksichtigt werden, da daraus negative Konsequenzen für den beruflichen Fortschritt erwachsen könnten.

Geheimdienst-Paradoxon Nr. 1 – Inhärente Unsicherheit der Zukunft: Dieses Paradoxon beschreibt die Herausforderung für den nachrichtendienstlichen Produzenten, angesichts der inhärenten Ungewissheit über die Zukunft doch ein Maß an Gewissheit zu schaffen und idealerweise in Wahrscheinlichkeiten auszudrücken. Hinzu kommt, dass der Prozess der nachrichtendienstlichen Aufklärung und die Anforderung, relevante und genaue Informationen zu liefern, zu einer zeitlichen Verzögerung bei der Ermittlung der wahrscheinlichen Absichten eines Gegners führen. Diese Zeitverzögerung erhöht die Anfälligkeit für Überraschungen in zweierlei Hinsicht: Erstens könnte sie sich bei einem plötzlichen Übergang von der Routine zur Bedrohung als entscheidend erweisen. Zweitens können auch präzise nachrichtendienstliche Informationen durch neue Entwicklungen überholt werden. Ehemals korrekte Informationen und Einschätzungen wirken dann als kognitive Barriere, die neue, widersprüchliche Informationen erst überwinden müssen.[23]

Geheimdienst-Paradoxon 2 – List und Täuschung: Die erhaltenen Informationen kann ein feindlicher Akteur absichtlich gesendet oder manipuliert haben, um ein bestimmtes Ziel zu erreichen oder einen bestimmten Eindruck zu erwecken, d. h. um ein Signal zu verschleiern oder von ihm abzulenken. Wie Michael I. Handel es ausdrückte: „Die allgegenwärtige Möglichkeit der Täuschung verkompliziert die ohnehin schon schwierige Aufgabe des Nachrichtenanalysten zusätzlich. Täuschung kann definiert werden als die absichtliche und subtile Verbreitung von irreführenden Informationen an einen Nachrichtendienst durch seine Gegner.“[24]

Tab. 1:

Übersicht orthodoxe und revisionistische Schule der Überraschungsforschung

Orthodoxe-Pessimisten

Revisionistische Optimisten

Überraschungen sind unvermeidlich.

Überraschungen treten trotz Vorwarnung auf.

Es können zwar Maßnahmen ergriffen werden, um die Anfälligkeit für Überraschungen zu verringern, aber der Überraschung immanente Faktoren verhindern, dass Opfer sie genau vorhersagen und sich dagegen absichern kann:

Ungewissheit, die der Zukunft innewohnt.

Unvermeidliche Beschränkung der Warn- und Reaktionsmechanismen der Regierung.

Zwei Untergruppen der orthodoxen Schule:

Die Mehrheit ist der Ansicht, dass Überraschungen auftreten, weil die politischen Entscheidungsträger nicht auf verfügbare Warnungen reagieren.

Die Minderheit sieht die Schuld bei den Nachrichtendiensten oder jenen Stellen, die die politische Führung vor drohenden Gefahren warnen müssen.

Überraschungen können vermieden werden.

Sie treten wegen unvollständiger oder fehlerhafter Informationen auf.

Faktoren, die zu Einschränkungen im Warn- und Reaktionsmechanismus einer Regierung beitragen, können überwunden werden.

Zwei Ansätze:

Schaffung eines technologisch gestützten strategischen Warn- oder Vorausschau-Systems für politische Entscheidungsträger.

Organisatorische Umstrukturierung und Neuorganisation des Warn- und Reaktionsmechanismus.

3.3 One man’s surprise is another man’s analysis

Die Einigkeit der Forschung und die Vielzahl der identifizierten Filter und Faktoren können jedoch nicht darüber hinwegtäuschen, dass es in keinem der untersuchten Überraschungsfälle gelungen ist, eindeutig die Ursache oder den Fehler auszumachen, die oder der entscheidend war für eine irrige Annahme über mögliche zukünftige Entwicklungen – weder im Einzelfall noch generell. Es lässt sich somit nicht von einer „Theorie der Überraschung“ sprechen.[25] So gilt für Überraschungen, was auch für Krisen und Konflikte gilt: Jede Überraschung ist einzigartig. In nahezu allen untersuchten Fällen – vom trojanischen Pferd bis zu den Terrorattacken von 9/11 – hat es immer Warnungen gegeben, die nicht ausreichend gewürdigt worden sind. Daher gilt: One man’s surprise is another man’s analysis. Statt sich gegenseitig die Schuld in der Vergangenheit zuzuweisen, muss es darum gehen, ob und wie Überraschungen in der Zukunft verhindert werden können – und was zu tun ist, wenn nicht.[26]

4 Verhindern von Überraschungen

Während bei der Erforschung der Ursachen weitestgehend Einigkeit in der Forschung besteht, gehen die Meinungen bei der Frage, ob Überraschungen in der Zukunft vermeidbar sind, auseinander. Die Mehrzahl der Autoren sieht dies pessimistisch und die Mechanismen, die Überraschungen bewirken, werden als permanent angesehen. Eine Minderheit jedoch hält ein Verhindern für möglich. Die Vertreter dieser Position berufen sich insbesondere auf technologische Entwicklungen im Bereich der Informationsgewinnung und automatisierten Verarbeitung riesiger Datenmengen. Während die Pessimisten in der Forschung „Orthodoxe“ genannt werden, haben die Optimisten sich selbst als „Revisionisten“ bezeichnet.[27] Tabelle 1 gibt einen Überblick über die beiden Sichtweisen.

Es wurden beträchtliche Anstrengungen unternommen, um Wege und Mittel zu finden, künftige Überraschungen auszuschließen.[28] Vieles davon wurde unter dem Eindruck der enormen Fortschritte datengetriebener Technologie entwickelt, die sich auf Informationsbeschaffung, Analysen und Entscheidungsprozesse gleichermaßen auswirken. Im Bereich der strategischen Aufklärung und der Prognose etwa spielen Bayes’sche Netze eine Schlüsselrolle, da sie es ermöglichen, große Datenmengen zu berücksichtigen und mögliche künftige Entwicklungen und Wahrscheinlichkeiten für deren Eintritt zu ermitteln. Andere Ansätze, die eher von Erkenntnissen der Psychologie und Organisationssoziologie ausgehen, stellen die menschlichen und organisatorischen Ursachen in den Mittelpunkt: Methodisch geschärfte Konzepte wie Red Teaming, kritisches Denken, Simulationsübungen, Workshops zu Gruppendenken und der Kraft kognitiver Prädispositionen sowie die Betrachtung möglicher Überraschungen zielen darauf ab, das Bewusstsein für eventuelle blinde Flecken zu schärfen, anstatt die Wahrscheinlichkeiten des nächsten unerwarteten Ereignisses vorherzusagen. Allen gemeinsam ist jedoch die Überzeugung, dass Überraschungen sich unter bestimmten Voraussetzungen vermeiden lassen.

Jedoch ist die Politik kein wissenschaftliches Labor, in dem perfekte Bedingungen geschaffen werden können, sondern eine oftmals chaotische Realität – und heute wissen wir: Trotz der Quantensprünge in der technologischen Entwicklung, die die Welt erlebt hat, und trotz der Vielzahl psychologisch strukturierter Ansätze zur Schärfung des Bewusstseins für die verantwortlichen menschlichen Faktoren treten Überraschungen weiterhin auf. Doch warum?

In einer jüngeren Veröffentlichung beschreiben Leni Kass and Phillip London die Ursachen für diesen Teufelskreis wie folgt: „Die Bereitschaft, die mentalen, institutionellen und technologischen Filter zu öffnen, und die daraus resultierende Fähigkeit, neue Informationen auf neue Weise aufzunehmen und zu integrieren, sind in der Regel nur von kurzer Dauer. Kurz nachdem die Krise, die das System erschüttert und neue Verhaltensweisen ausgelöst hat, vorüber ist, werden Stabilität und business as usual zum natürlichen Standard. Die veränderten Verhaltensweisen werden zur neuen Normalität; neu geschaffene ‚Erinnerungsspeicher‘ werden schal oder irrelevant; Selbstzufriedenheit stellt sich unweigerlich ein. […] Ohne ständige Wachsamkeit und Anpassung an die sich permanent weiterentwickelnden Bedrohungen werden Fixes zu Fixes und schaffen neue Schwachstellen, die sowohl symmetrisch als auch asymmetrisch ausgenutzt werden können.“[29]

Einfacher ausgedrückt: Auch, wenn es Phasen gibt, in der sich die Wahrnehmung aufgrund einer erlebten Überraschung ändert, entstehen mit der Zeit neue Pfadabhängigkeiten und blinde Flecken. Zudem: Mensch bleibt Mensch, und der menschliche Faktor wirkt permanent im Regierungshandeln. Die folgende Abbildung von London und Kass veranschaulicht diese ewige Spirale der Überraschung:

Abb. 2: Die ewige Spirale der Überraschung, Quelle: Kass/London 2013, 72.
Abb. 2:

Die ewige Spirale der Überraschung, Quelle: Kass/London 2013, 72.

5 Empfehlungen für eine resilientere deutsche Außen-, Sicherheits-, Entwicklungs- und Verteidigungspolitik

Überraschungen sind für die Betroffenen demütigend. Sie machen den Irrtum weithin sichtbar. Anders als in vielen seiner Partnerländer, insbesondere den USA und dem Vereinigten Königreich, gab es in Deutschland – obwohl es spätestens seit der Finanzkrise zahlreiche negative Überraschungen mit schwerwiegenden Konsequenzen erlebt hat – keine systematische Auseinandersetzung damit, weshalb man auf diese Ereignisse so unvorbereitet war. Dies belegte erst unlängst die empörte und emotionale, aber wenig fundierte Debatte über die Ursachen und Entstehungsgeschichte der Fehleinschätzung der Lage in Afghanistan. Noch deutlicher wird dies im Kontext der aktuellen Debatte, wie es dazu kommen konnte, dass Deutschland das Risiko, das von Russland ausgeht, so lange übersehen konnte.

Der geschilderte Forschungsstand macht es leicht, die Schuld bei Politikern zu suchen, oder eine gründliche Auseinandersetzung mit den Ursachen, die zu der Fehleinschätzung führten, als vertane Zeit abzutun – hinterher ist man schliesslich immer schlauer. Das mag stimmen – fördert auch die Anfälligkeit für Überraschungen in der Zukunft und minimiert die Resilienz des Staates im Eintrittsfall. Zunächst gilt es, dass Offensichtliche anzuerkennen: Finanzkrise, Donald Trumps Wahl, Großbritanniens Austritt aus der Europäischen Union, Russlands Annexion der Krim, Corona-Pandemie, der Binnen-Tsunami im Ahrtal, das Debakel von Kabul und der Überfall auf die Ukraine haben den gemeinsamen Nenner, dass Deutschland von jedem dieser Ereignisse überrascht wurde. Die in diesem Beitrag skizzierten Faktoren, die die Anfälligkeit für Überraschungen verstärken, legen darüber hinaus nahe, dass einseitige Schuldzuweisungen keine adäquate Antwort sind, um in der Zukunft weniger anfällig zu sein, kalt erwischt zu werden.

Will Deutschland tatsächlich mehr Verantwortung übernehmen, wie es seit 2012 behauptet, dann muss es auch bereit und in der Lage sein, auf unvorhergesehene Entwicklungen besser reagieren zu können. Dazu muss es sich vor allem erst einmal ehrlich vor sich selbst machen. Hier ist noch einmal zu betonen, dass das Phänomen der Überraschung insbesondere im angelsächsischen Strategiediskurs erhöhte Aufmerksamkeit erfährt, es aber keinen deutschen Beitrag zu dieser Debatte gibt. Weder gibt es deutschsprachige Studien, die sich Deutschland als Opfer früherer Überraschungen widmen, noch systematische Analysen der Ursachen. Warum das so ist, wäre eine weitere Untersuchung wert, denn Überraschungen hat die Bundesrepublik Deutschland in den vergangenen 73 Jahren zur Genüge erlebt. Von besonderem Interesse wäre die Frage, ob sich systematische Hindernisse für die Analyse negativer Überraschungsereignisse in den Reihen der Bundesregierung identifzieren lassen, wobei Bundesregierung sowohl die gewählten Regierungsmitglieder als auch die beteiligten Ressorts und ihre Mitarbeiter umfassen müsste. Ebenfalls zu analysieren wäre der nachträgliche Umgang der Bundesregierung mit solchen unerwarteten Erlebnissen. Gab es unvoreingenommene Bewertungen der unwillkommenen Geschehnisse? Gibt es Bemühungen, die Lehren solcher Erfahrungen in der Regierungspraxis umzusetzen? Wurde dies politisch gefordert und von der Legislative regelmäßig überprüft? Folgten nicht nur strukturelle Veränderungen, sondern wurde auch die Art und Weise der Regierungsarbeit, insbesondere der Informationsfluss, die Bedeutung von Hierarchien oder der systematische Umgang mit abweichenden Analysen thematisiert? Dies sind Fragen, die sich für eine wissenschaftliche Betrachtung bestens eignen.[30]

Die Entwicklung eines Konzepts innerhalb staatlicher Organisationen und der Politik, die einen Großteil ihrer Legitimität aus dem Herstellen von Gewissheiten bezieht, wo zuvor Ungewissheit vorherrschte, setzt voraus: Man muss akzeptieren, dass Überraschungen und das Versagen, Überraschungen zu antizipieren, normal sind. Unangenehm, aber normal.[31]

Ein entsprechendes Verständnis ließe sich entwickeln, wenn man umsetzt, was der ehemalige deutsche Außenminister Sigmar Gabriel unter dem Eindruck der COVID-Pandemie vorgeschlagen hat: die strategischen Schocks, die Deutschland seit 2011 erlebt hat – Fukushima, Krim, ISIS, Migrationskrise, BREXIT, Wahl von Donald Trump und COVID-Pandemie –, zu überprüfen und zu reflektieren, wo und warum die Bundesregierung Fehler gemacht hat.[32] Eine solche Überprüfung könnte in der Politik das Bewusstsein für Handlungsspielräume und -grenzen schärfen helfen und bei Politikern und Analysten das Gespür für die Risiken ihrer Prämissen und Annahmen fördern. Sie kann darüber hinaus einen wichtigen Beitrag dazu leisten, Deutschlands Resilienz gegenüber exogenen Schocks zu stärken. Vor allem könnte sie endlich zur Erkenntnis führen, dass in den internationalen Beziehungen, insbesondere in Krisenzeiten, stets mit Überraschungen zu rechnen und nichts in der Politik alternativlos ist.

Eine folgenreiche Fehleinschätzung ist immer die Quersumme einer Vielzahl von Fehlern und Fehleinschätzungen. Eine Aufarbeitung etwa des Fiaskos in Afghanistan wird zeigen, dass die Fehleinschätzung nicht erst nach Bekanntwerden des US-Truppenabzugs eintrat, sondern viel weiter zurückreicht und viel tiefere Wurzeln hat,[33] die nicht allein politischen Entscheidungsträgern, dem Militär oder den Nachrichtendiensten angelastet werden können. Dies wird in weit größerem Maße auch für die Überraschung gelten, die Russlands Angriff auf die Ukraine am 24.02. 2022 bedeutete.

Zur Wahrheit gehört außerdem, dass selbst der ehrlichste Reflexionsprozess die nächste Überraschung kaum wird verhindern können und es zum paradoxen Charakter von Überraschungen gehört, dass sogar die Methoden, die ihr Eintreten verhindern sollen, …Grundlage für falsche Annahmen über die Zukunft sein können. Verhindern werden es auch neue Amtsträger oder -trägerinnen, parlamentarische Ausschüsse, ressortübergreifende Reflexionsprozesse und tiefgreifende Reformen nicht. Dennoch sind solche Auseinandersetzungen unabdingbar, um ein neues Selbstverständnis zu gewinnen – sofern sie nicht nur hinter verschlossenen Türen stattfinden, sondern Teil der öffentlichen Debatte werden, und darin nicht nur einen Teil der beteiligten Akteure an den Pranger stellen, sondern vom Verständnis getragen werden, dass man gemeinsam Verantwortung für eine bessere Zukunft hat. „Wenn eine Regierung überrascht wird, ist das eine komplizierte, diffuse, bürokratische Angelegenheit“, stellte Thomas Schilling wie Eingangs zitiert in seinem Vorwort für Roberta Wohlstetters Buch „Warning and Decision“ fest. Sie betrifft alle am Regierungshandeln beteiligten – auch die, die es von außen zu beeinflussen suchen, seien es Medien, Wissenschaft, NGOs, oder der Privatsektor. Bei aller Bedeutung, die eine systematische Ursachensuche und Entwicklung von Vermeidungsstrategien hat – sie bleibt, wie auch diese Übersicht über den Stand der Forschung zur Frage, warum Regierungen überrascht werden, abstrakt und nebulös. Sie sind damit wenig hilfreich für all jene, die täglich gegen die Unsicherheit der Zukunft arbeiten müssen, die Gewissheiten schaffen müssen, wo keine Gewissheit sein kann. Was kann also der einzelne Entscheider, Diplomat, Soldat, Entwicklungshelfer und Analyst tun, um die Wahrscheinlichkeit einer Überraschung zu verringern und zugleich im Fall einer solchen die Resilienz zu erhöhen? Leni Kass und Philip London schlagen neun Prinzipen als Orientierungspunkte für das eigene Handeln vor:

„1. Führen Sie immer eine Realitätsprüfung durch, nicht nur aus Ihrer eigenen Perspektive, sondern auch aus der des Gegners. Die Realität hat immer Ecken und Kanten, Zweideutigkeiten und Grautöne. Wenn alles glasklar ist und mit Ihrem Best-Case-Szenario übereinstimmt und der Gegner sich genauso verhält, wie Sie es unter ähnlichen Umständen tun würden, werden Sie wahrscheinlich getäuscht.

2. Legen Sie die Annahmen klar und deutlich dar. Ermitteln Sie die zentralen Annahmen, die, wenn sie sich als falsch erweisen, Ihr gesamtes Vorgehen auf den Kopf stellen würden. Entwickeln Sie ein System, mit dem Sie diese Annahmen regelmäßig überprüfen und sicherstellen, dass Sie nicht Schätzungen mit Fakten oder Hoffnungen mit realisierbaren Handlungsoptionen verwechseln. Denken Sie daran, dass jeder Plan, der sich auf mehr als zwei aufeinanderfolgende Wunder stützt und gegen mehr als ein physikalisches Gesetz verstößt, nicht geeignet ist – auch nicht als Täuschung oder Finte.

3. Verlieben Sie sich nicht in einen Plan, eine Politik, ein Programm oder eine Einschätzung. Erwarten Sie nicht, dass der Gegner kooperiert. Stellen Sie sich auf das Unerwartete ein, im Sinne von „was wäre wenn?“ und „was als nächstes?“ Achten Sie darauf, was sowohl Gegner als auch Verbündete sagen und tun – vor allem wenn Worte und Taten nicht übereinstimmen. Lassen Sie Indikatoren nicht außer Acht, nur weil sie auf Dinge hindeuten, die Sie niemals tun würden. Es gibt keine allgemeingültigen Maßstäbe für Rationalität oder Rücksichtslosigkeit.

4. Arbeiten Sie mit allen zusammen, die neue Einsichten und andere Perspektiven liefern können. Halten Sie diesen Kreis so vielfältig und breit wie möglich. Helfen Sie Ihren Kollegen, indem Sie die „richtigen“ Fragen stellen. Sagen Sie ihnen ausdrücklich, was Sie wissen müssen und warum. Seien Sie jedoch realistisch: Keine bestehende Technologie ist in der Lage, Absichten zu beurteilen. Stellen Sie die Glaubwürdigkeit jeder Information infrage – ganz gleich, wie beruhigend, überzeugend oder streng geheim sie ist.

5. Man weiß nicht, was man nicht weiß, und was man nicht weiß, kann zu einer Katastrophe führen. Schaffen Sie ein Organisationsklima, das es zulässt, dass alternative Standpunkte eine faire Anhörung erhalten. Hüten Sie sich vor Gruppendenken und denken Sie daran, dass etwas, nur weil es noch nie zuvor passiert ist, nicht ausschließt, dass es passiert. Jeder Präzedenzfall wurde durch die mutige oder törichte Tat eines Menschen geschaffen.

6. Vertrauen Sie auf Ihren Instinkt und seien Sie bereit, den Preis zu zahlen, der damit verbunden sein könnte. Bei der Warnung geht es darum, sicher zu sein, nicht darum, Recht zu haben. Hüten Sie sich vor dem „Wolfsschrei-Syndrom“, aber weisen Sie die Überbringer von schlechten Nachrichten nicht ab. Manchmal stehen die Wölfe wirklich vor der Tür und „aufrührerische Rhetorik“ deutet auf eine reale und gegenwärtige Gefahr hin.

7. Eine rechtzeitige, unmissverständliche Warnung ist zwar schön, aber verlassen Sie sich nicht darauf. Gehen Sie nicht davon aus oder erwarten Sie nicht, dass automatisch angemessene Entscheidungen, Befugnisse und Maßnahmen folgen werden. Sie haben innerhalb Ihrer eigenen Organisation einen großen Handlungsspielraum. Tun Sie, was richtig ist, auch wenn Sie dafür Ihre Karriere aufs Spiel setzen müssen.

8. Seien Sie kein Opfer! Es ist schmerzhaft, auch wenn Sie am Ende gewinnen. Lassen Sie niemals zu, dass der Initiator seinen Anfangserfolg ausnutzt. Die Überraschung bestimmt nur, wo und wie die ersten Schlachten geschlagen werden, aber es liegt an Ihnen, diesen Grundsatz jedes Mal aufs Neue zu bekräftigen.

9. Werden Sie nicht selbstgefällig. Selbstüberschätzung ist tödlich.“[34]

Im Kern dieser Prinzipien steht die Maxime: Hinterfrage Dich und deine Annahmen stets selbst! In Deutschland scheint jedoch eher das Gegenteil verbreitet zu sein. Statt die eigenen Annahmen nüchtern zu hinterfragen, scheint eher das die Regel zu sein, was der ehemalige U.S. Verteidigungsminister James Mattis jüngst als Assumptionities beschrieb – die Tendenz, sich mit der Bestätigung der eigenen Annahmen zufriedenzugeben. Vielleicht geben das deutsche Debakel von Kabul und die Erfahrung mit der russischen Politik Deutschland Anlass, sich gegenüber den Folgen dieser Tendenz ehrlich zu machen. Das wäre auch ohne diese Erfahrungen dringend nötig, denn schon vor dieser bitteren Lektion galt: „Deutschland, wir müssen reden“.[35]

Literatur

Bagger, Thomas (2021): ‚Deutschland, wir müssen reden!‘, Internationale Politik online; https://internationalepolitik.de/de/deutschland-wir-muessen-redenSearch in Google Scholar

Betts, Richard K. (1989): Surprise, Scholasticism, and Strategy: A Review of Ariel Levite’s Intelligence and Strategic Surprises, International Studies Quarterly, 33 (3), 329–34310.2307/2600463Search in Google Scholar

Betts, Richard K./Mahncken, Thomas G., Hrsg. (2003): Paradoxes of Strategic Intelligence: Essays in Honor of Michael I Handel. London und Portland, OR.: Frank CassSearch in Google Scholar

Bracken, Paul/Bremmer, Ian/Gordon, David, Hrsg. (2008): Managing Strategic Surprise. Cambridge: Cambridge University Press10.1017/CBO9780511755880Search in Google Scholar

Brodie, Bernard, Hrsg. (1914): The Absolute Weapon, Atomic Power and World Order. New York: Harcourt, Brace and CompanySearch in Google Scholar

Clausewitz, Carl von (1867): Vom Kriege. Zweite Auflage. Berlin: DümmlerSearch in Google Scholar

Eitel, Peter (2021): The Russian Annexation of Crimea 2014: Which Role for Surprise, especially for Germany?, Dissertation, Universität KielSearch in Google Scholar

Gilovich, Thomas/Griffin, Dale/Kahnemann, Daniel, Hrsg. (2002): Heuristics and Biases: The Psychology of Intuitive Judgment. Cambridge, Mass.: Cambridge University Press10.1017/CBO9780511808098Search in Google Scholar

Gray, Colin (2005): Transformation and Strategic Surprise. Carlisle Barracks, PA.: US Army War College10.21236/ADA433054Search in Google Scholar

Handel, Michael I. (2003): Intelligence and the Problem of Strategic Surprise, in: Richard K. Betts und Thomas G. Mahncken (Hrsg.): Paradoxes of Strategic Intelligence: Essays in Honor of Michael I Handel. London und Portland OR.: Frank Cass, 1–5810.4324/9780203043554-12Search in Google Scholar

Jervis, Robert (1976): Perception and Misperception in International Politics. Princeton NJ.: Princeton University PressSearch in Google Scholar

Kass, Leni/London, J. Phillip (2013): Surprise, Deception, Denial, Warning: Strategic Imperatives, ORBIS, 57 (1) 59–8210.1016/j.orbis.2012.10.005Search in Google Scholar

Kielmannsegg, Hanno von (1988): Die vergessene Gefahr der strategischen Überraschung, Europäische Wehrkunde, 4 (87), 211–212Search in Google Scholar

Levite, Ariel (1987): Intelligence and Strategic Surprise. Washington D.C.: Columbia University PressSearch in Google Scholar

Levite, Ariel (1989): Intelligence and Strategic Surprises Revisited: A Response to Richard K. Betts’s ‚Surprise, Scholasticism, and Strategy’, International Studies Quarterly, 33 (3), 345–34910.2307/2600464Search in Google Scholar

Liddel-Hart, Basil (1975): Strategy. New York: PraegerSearch in Google Scholar

Marrin, Steve (2017): Why strategic intelligence analysis has limited influence on American foreign policy, Intelligence and National Security, 32 (6), 725–74210.1080/02684527.2016.1275139Search in Google Scholar

Nolan, Janne E./MacEachin, Douglas/Trockman, Kristine (2006): Discourse, Dissent, and Strategic Surprise: Formulating U.S. Security Policy in an Age of Uncertainty. Washington, D.C.: Institute for the Study of Diplomacy, School of Foreign Service, Georgetown UniversitySearch in Google Scholar

Tetlock, Philip E. (2017): Expert Political Judgement: How good is it? How can we know? New edition. Princeton, NJ.: Princeton University Press10.1515/9781400888818Search in Google Scholar

Whaley, Barton (2013): Stratagem – Deception and Surprise in War. Norwood, MA: Artech HouseSearch in Google Scholar

Wirtz, James J. (2003): A Theory of Surprise, in: Richard K. Betts und Thomas G. Mahncken (Hrsg.): Paradoxes of Strategic Intelligence: Essays in Honor of Michael I Handel. London und Portland OR.: Frank Cass, 101–116Search in Google Scholar

Wohlstetter, Albert (1959): The Delicate Balance of Terror, Foreign Affairs, 37 (2), 211–23410.1007/978-1-349-19791-0_12Search in Google Scholar

Wohlstetter, Roberta (1962): Pearl Harbor. Warning and Decision. Stanford, Cal.: Stanford University Press10.1515/9781503620698Search in Google Scholar

Published Online: 2022-09-09
Published in Print: 2022-09-01

© 2022 Eitel, publiziert von Walter de Gruyter GmbH, Berlin/Boston

Dieses Werk ist lizensiert unter einer Creative Commons Namensnennung - Nicht-kommerziell - Keine Bearbeitung 4.0 International Lizenz.

Articles in the same Issue

  1. Titelseiten
  2. Editorial
  3. Editorial
  4. Aufsätze
  5. Der russische Überfall auf die Ukraine – eine militärische Lageanalyse
  6. An der Schwelle zum Dritten Weltkrieg – Welche Risiken darf der Westen im Ukraine-Krieg eingehen?
  7. Russlands diktierter Nicht-Frieden im Donbas 2014–2022: Warum die Minsker Abkommen von Anbeginn zum Scheitern verurteilt waren
  8. One man’s surprise is another man’s analysis: Warum Regierungen überrascht werden und was man dagegen tun kann
  9. Die militärische Modernisierung in China und Russland und die Vierte Industrielle Revolution
  10. Auf dem Weg zum Krieg von morgen. Chinesische Militärtheorie und die Evolution des Krieges
  11. Kurzanalyse
  12. Unterschiede zwischen westlichen und nichtwestlichen US-Verbündeten in der Reaktion auf den Ukraine-Krieg
  13. Kommentar
  14. Die längerfristigen Auswirkungen des Ukraine-Krieges und die wachsende Bedeutung der zivilen Seite des Krieges
  15. Ergebnisse strategischer Studien
  16. Zukunft Russlands
  17. Cyrus Newlin/Andrew Lohsen: Russia Futures. Three Trajectories. Washington, D.C.: Center for Strategic and International Studies (CSIS), Mai 2022.
  18. Die Lage von Taiwan
  19. Jacob Stokes/Alexander Sullivan/Zachary Durkee: Global Island. Sustaining Taiwan’s International Participation Amid Mounting Pressure from China. Washington, D.C.: Center for a New American Security (CNAS), April 2022
  20. Johan Englund: Isolating Taiwan beyond the Strait: Chinese pressure tactics in four democracies. Stockholm: Swedish Defence Research Agency (FOI), Mai 2022
  21. Entkoppelung von China
  22. CSIS Multilateral Cyber Action Committee: The Two Technospheres. Western-Chinese Technology Decoupling: Implications for Cybersecurity. Washington, D.C.: Center for Strategic & International Studies (CSIS), März 2022
  23. US-Militärpolitik
  24. Marc F. Cancian: U.S. Military Forces in FY 2022: Peering into the Abyss. Washington, D.C.: Center for Strategic & International Studies (CSIS), März 2022
  25. Bücher von gestern – heute gelesen
  26. Militärische Strategien und die Wirksamkeit von Abschreckung zur Zeit des Ost-West-Konflikts
  27. Buchbesprechungen
  28. Christopher M. Smith: Ukraine’s Revolt, Russia’s Revenge. Washington, D.C.: Brookings Institution 2022, 384 Seiten
  29. Michel Eltchaninoff: In Putins Kopf. Logik und Willkür eines Autokraten. Stuttgart: Tropen, 2022, aktualisierte Neuausgabe (aus dem Französischen von Till Bardoux), 222 Seiten
  30. Rush Doshi: The Long Game. China’s Grand Strategy to Displace American Order. New York: Oxford University Press, 2021, 459 Seiten
  31. Ryan Hass: Stronger. Adapting America’s China Strategy in an Age of Competitive Interdependence. New Haven, Yale University Press 2021
  32. Bildnachweise
Downloaded on 12.9.2025 from https://www.degruyterbrill.com/document/doi/10.1515/sirius-2022-3005/html
Scroll to top button