Home Erfolgsdeterminanten agnotologischer Strategien im Wissensmanagement
Article Publicly Available

Erfolgsdeterminanten agnotologischer Strategien im Wissensmanagement

  • Michael Reiss

    Prof. Dr. Michael Reiss studierte Wirtschaftswissenschaften und Psychologie an den Universitäten Frankfurt am Main und Freiburg. Von 1988 bis März 2013 war Michael Reiss Inhaber des Lehrstuhls für ABWL und Organisation an der Universität Stuttgart. Seine Publikationsliste umfasst mehr als 500 Veröffentlichungen auf den Gebieten Organisationsgestaltung, Personalführung, Kooperationsmanagement, Planung, Controlling, Qualitätsmanagement, Change-Management und Netzwerkorganisation.

    EMAIL logo
Published/Copyright: May 9, 2023

Zusammenfassung

Agnotologische Strategien bezwecken mittels Desinformation, Hacking, Cyberangriffen, Propaganda, Betrug, Gaslighting, Nudging, Überflutung, Zensur, selektiver Geheimhaltung oder Zugriffsbarrieren zu den Wissensinfrastrukturen den Abbau von Wissen und das Disabling von Entscheidungen der jeweiligen Targets. Manipulatoren wollen bei den Targets eine irreführende, intransparente und/oder lückenhafte Wissensbasis schaffen. Der Manipulationserfolg hängt entscheidend vom Strategieverbund und von der Resilienz der Targets ab.

Abstract

Agnotological strategies use disinformation, hacking, cyberattacks, propaganda, fraud, gaslighting, nudging, information overload, censorship, selective secrecy, and/or access barriers to knowledge infrastructures to degrade knowledge and disable decisions of the respective targets. Manipulators aim to create a misleading, non-transparent and/or incomplete knowledge base of targets. The performance of manipulation depends crucially on the nexus of strategies and the resilience of the targets.

Résumé

Les stratégies agnotologiques visent à réduire les connaissances et à neutraliser les décisions des cibles concernées par le biais de la désinformation, du piratage, des cyberattaques, de la propagande, de la fraude, du gaslighting, du nudging, de la submersion, de la censure ou des barrières d’accès aux infrastructures de connaissances. Les manipulateurs veulent créer chez les cibles une base de connaissances trompeuse, opaque et/ou lacunaire. Le succès de la manipulation dépend de manière décisive du couplage de stratégies et de la résilience des groupes cibles.

1 Agnotologische Strategien: Standort und Spektrum

Wissensmanipulation soll in konfliktbehafteten Interaktionskonstellationen die Wissensbasis (aus Daten, Metadaten, Informationen, Programmen, Methoden, North; Maier 2818) von Targets[1] abbauen sowie deren Handlungsfähigkeit behindern (Disabling). Die vorhandene Wissensbasis wird durch einen Wissensabbau bei den Inhalten und den Wissensinfrastrukturen (zur Aufnahme, Speicherung, Verarbeitung und Weitergabe von explizitem Wissen) beschädigt, so dass letztlich eine Abnahme von Wissen bzw. eine Zunahme von Unwissen (Agnosis) entsteht. Dieser Zustand wird auch als (relative) „Ignorance“ (Roberts 2013; Greyson 2019; Israilidi et al. 2012; Bakken; Wiik 2017), „Informationsasymmetrie“ (in Verhandlungssituationen), Generierung von „Unknowns“, „toxisches Wissen“ sowie als „Entscheidungen bei Unwissenheit bzw. Ungewissheit“ bei den betroffenen Targets charakterisiert (Schwarzkopf 2020). Der Wissensabbau zeigt sich auf der Ebene des Objektwissens (z. B. Datenverlust, Lücken) und/oder des Metawissens: Hier schlägt sich die abnehmende Qualität des Objektwissens in einer Abnahme von dessen Validität, Reifegrad, Bewährungsgrad, Glaubwürdigkeit, Zuverlässigkeit sowie Spezifikationsgrad und Geltungsbereich nieder.

Als Sammelbezeichnung für diese Manipulationen eignet sich „agnotologische Strategien“ (Croissant 2014; Pinto 2015; Reiss 2022). Manipulatoren nutzen als Instrumente sowohl falsche oder unklar formulierte Wissensinhalte (z. B. Desinformation, Gerüchte, Lügen, Spekulationen, Informationsüberflutung) als auch Instrumente aus ihrer eigenen analogen und digitalen Wissensinfrastruktur, z. B. Flugblätter, Verkaufsprospekte, Malware, Cookies oder Chatbots (Caled; Silva2022). Einige der Strategien widersprechen Compliance-Regeln (z. B. Intrigen als Täuschungen mit Schädigungsabsicht, „Schummeln“ bei Klausuren), einige sind sogar illegal wie etwa Insidergeschäfte, Cyber-Grooming oder Schleichwerbung. Alternativ oder kombiniert bezwecken die Strategien drei Kategorien von Wissensabbau (Reiss 2022): Eine (1) irreführende, (2) intransparente oder (3) lückenhafte Wissensbasis. Die erzielten Disabling-Effekte umfassen Verunsicherung, Desorientierung, Ratlosigkeit, Unschlüssigkeit, Zweifel, Apathie und Überrumpelung, etwa durch Haustürgeschäfte, Kaltakquise, Enkeltricks, Schockanrufe, Terroristen oder Hackerattacken von Black-Hats. Ferner kommt es zu Schädigungen, Fehlentscheidungen beim Kauf oder bei Wahlen, zu gezielt provozierten Fehlern in der Personenwahrnehmung (z. B. Halo-Effekt), zu Impulskäufen, Blindflug, rein zufallsbasierten bzw. Ad hoc-Entscheidungen, zur Verzögerung oder zur Vermeidung von Entscheidungen bei den Targets. Mit Irreführung lassen sich fokussierte Desorientierungseffekte (z. B. Fehlinvestitionen), mit einer Intransparenz und mit Lücken in der Wissensbasis eher diffuse Orientierungsschwierigkeiten erzeugen. Der faktische Erfolg solcher agnotologischer Strategien, sprich Wissensabbau und Disabling, hängt sowohl von der Kompetenz der Manipulatoren als auch von der „kognitiven“ Resilienz (Hillmann 2021) der Targets ab, wie Abbildung 1 anhand von Beispielen für Strategien und Resilienzvorkehrungen (Infrastrukturen und Strategien der Resilienz) illustriert.

Abb. 1: Spektrum agnotologischer Strategien und Resilienzvorkehrungen (Quelle: Eigene Darstellung).
Abb. 1:

Spektrum agnotologischer Strategien und Resilienzvorkehrungen (Quelle: Eigene Darstellung).

Einzelne Varianten der agnotologischen Wissensmanipulation wurden bislang eingehender untersucht. Hierzu zählen etwa Verhandlungstricks (z. B. die Kennzeichnung bestimmter Punkte als „nicht verhandelbar“, Überzogene Forderungen), Steuervermeidung (z. B. Unterbewertungen von Aktiva, Treaty-Shopping, Gewinnverlagerung), Fakes (Zimmermann; Kohring 2018), Manipulation via soziale Medien, Börsenkursmanipulation (Manahov 2016), Medienkompetenz, IT-Security, Informationskriege, nicht nur in militärischen Konflikten („Weaponisation of Information“), sondern auch bei der wirtschaftlichen Kriegsführung mittels Desinformation und Propaganda, z. B. Standards Wars: Android vs. iOS oder der Chip War: USA gegen China.

Intensiv erforscht wurden mehrere Strategien, bei denen der Wissensabbau und das Disabling der Targets nicht nur für einen Informationsvorteil beim Manipulator, sondern darüber hinaus für dessen finanzielle Bereicherung genutzt werden. Monetäre Interessen werden dabei sowohl durch Anreiz- und Sanktionsmacht (z. B. Bestechung oder Erpressung) als auch durch Wissensmanipulation durchgesetzt. Im Zusammenhang mit dieser Kopplung der Sphären „Wissensabbau“ und „Bereicherung“ ist auch von Monetarisierung der Wissensmanipulation die Rede (Ryan et al. 2020). Manipulation fungiert demgemäß als Hebel für eine Umsatzsteigerung, für Erfolge im Wettkampfsport (mittels Doping), für mehr Stimmen bei politischen Wahlen, mehr Sitze in Parlamenten, Lösegeld, Steuerentlastung, eine Bereicherung von Schleusern, mehr Aufmerksamkeit in einer Attention Economy (z. B. gemäß Webmetrics), mehr Einfluss auf die Gesetzgebung (z. B. weniger Belastung durch gesetzliche Umweltauflagen dank Lobbyismus), frei werdende Kapazitäten für Wettbewerbsstrategien oder für mehr Reputation. Durchweg wird hierbei die angestrebte illegale Bereicherung vertuscht durch einen Wissensabbau: Das gilt für Betrug (z. B. Versicherungsbetrug, Anlagebetrug), Schwarzarbeit, Geldwäsche, Scamming, geschönte Angebotskalkulationen und abgesprochene Gebote bei Ausschreibungen, Bilanzmanipulation, Insiderhandel, Steuervermeidung (z. B. mittels Unterbewertung, Kleinrechnen, Briefkastenfirmen, Gewinnverlagerung, verschachtelte Konzernen, etwa bei der „Double Irish with a Dutch Sandwich-Strategie“ mit zwei irischen Gesellschaften und einer zwischengeschalteten niederländischen Gesellschaft), Verbreitung von Falschgeld, als Originale deklarierte Kopien (z. B. Produktpiraterie), Desinformation als Geschäftsmodell (z. B. 3F: „Fast, Fake, Famous“, Darknet) oder Börsenkursmanipulation.

Neben den agnotologischen Strategien wurden auch einige Resilienzvorkehrungen eingehender erforscht (Caled; Silva 2022). Hierzu zählen beispielsweise IT- und Cybersecurity (z. B. dezentrale Data Mesh- statt zentrale Data Lake-Architekturen), der Kampf gegen Desinformation in Social Media (Shu 2020), Ambiguitätstoleranz (Bühren et al. 2022) oder die Kompensation des Wissensabbaus durch „Aufklärer“ im Kampf gegen Irreführung, Intransparenz und Wissensverlust (z. B. Whistleblowing, Enthüllungsplattformen, investigativer Journalismus).

Neben den skizzierten Varianten einer intendierten Wissensmanipulation wurden auch mehrere emergente Formen des Wissensabbaus näher analysiert (Reiss 2022). Das Spektrum umfasst Informationspathologien, kognitive Dissonanzen, Autosuggestion, Biases, Misinformation (z. B. Zeitungsenten, Errata bei wissenschaftlichen Veröffentlichungen, nachlässige Überprüfung von Abschlüssen durch Wirtschaftsprüfungsgesellschaften), das Versagen von Aufsichtsbehörden (z. B. Zoll, Bafin: Bundesanstalt für Finanzdienstleistungsaufsicht), Fehlinterpretationen von Fotomaterial oder die Post-Truth-Ära, in der Entscheidungen nicht durch Wissen, sondern durch Emotionen determiniert werden.

2 Komplexitätsadäquate Strategiemodelle

Obwohl Wissensmanipulation im Kern die Nutzung von Komplexität, etwa in Gestalt von Irreführung, Intransparenz, Anonymität und Unterdeterminiertheit zur Erzielung von Vorteilen repräsentiert, dominieren derzeit vereinfachte und damit realitätsferne Modelle des Einsatzes agnotologischer Strategien der Wissensmanipulation. Tatsächlich fungieren bislang vernachlässigte Erscheinungsformen von Komplexität als weitere Erfolgsdeterminanten von wissensbasierter Manipulation. Neben der begriffskonstituierenden Ambiguität basiert der Manipulationserfolg auch auf der Diversität, sprich der Vielzahl und Vielfalt von Modellparametern und deren Verbundbeziehungen (Reiss 2020). Formale Komplexitätsmerkmale eignen sich als gemeinsamer Nenner zur Beschreibung der vorliegenden punktuellen Modellansätze. Sie ermöglichen dadurch eine ganzheitliche Modellierung und den Erkenntnistransfer zwischen den vorliegenden Partialmodellen der Wissensmanipulation. Ganzheitlichkeit betrifft nicht zuletzt die komplex-verketteten Mittel-Ziel-Zusammenhänge, etwa zwischen der Beschädigung von Wissensinfrastrukturen, dem dadurch generierten Wissensabbau (Lücken, Intransparenz, Verlust geschützter personenbezogener Daten und damit eines resilienzstärkenden Intransparenzvorteils), der Bereicherung der Manipulatoren, der induzierten Verunsicherung und den provozierten Fehlentscheidungen (Disabling) von Targets, deren Gegenmaßnahmen zur Resilienzsicherung (z. B. Betrugserkennung), den Gegenmaßnahmen der Manipulatoren zur Überwindung der Resilienzmaßnahmen (z B. intelligentere Betrugspraktiken), dem Nachbessern der Targets zur Resilienzstärkung (durch Schaffung einer robusteren Betrugserkennung, z. B. mit Limited Originality of Content-Checks) und der Bestrafung der aufgedeckten Manipulation durch Gerichte. Ferner schlägt sich die Diversität in komplexen Akteur-Konstellationen und Beziehungsmustern nieder, vor allem beim Auftreten von mehreren Manipulatoren, Targets und Drittparteien (Akteur-Verbund, vgl. 3.1). Dies gilt auch für diversifizierte Strategievarianten und deren Kombinationen (Strategie-Verbund, vgl. 3.2). Nur ansatzweise wurden bislang symmetrisch angelegte Manipulationskonfigurationen jenseits der asymmetrischen Täter-Opfer-Modelle untersucht. Hier praktizieren alle Beteiligten sowohl offensive agnotologische Strategien als auch defensive Resilienzstrategien (vgl. 3.3). Diese realitätsnahen Konstellationen erfordern eine komplexe Erfolgsmodellierung, etwa mithilfe einer gleichzeitigen Erfassung von multiplen Manipulationsstrategien und Resilienzaktivitäten (vgl. 3.4). Schließlich müssen die Modellansätze angesichts der Ubiquität von Wissensmanipulation differenziert werden, etwa durch die Aufnahme von Moderatorvariablen oder eine Differenzierung des Wissensabbaus nach Wissenskategorien (vgl. 4).

3 Spektrum der Erfolgsdeterminanten

3.1 Akteur-Verbund

Eine erste Anforderung an realitätsnahe Modelle ist, die simplifizierende Fokussierung auf den 1:1-Ansatz der Wissensmanipulation zwischen einem Manipulator und einem Target, Hand in Hand mit einer einseitigen Manipulationsbeziehung und gegebenenfalls einer entgegen gerichteten Abwehrbeziehung zu überwinden: Eine Mehrfachbesetzung der beiden Rollen schlägt sich in einer von zwei Verbundformen nieder, die sich unter Erfolgsaspekten signifikant voneinander unterscheiden: Ein Alternativ-Verbund charakterisiert Akteur-Pools. Sie generieren Flexibilität in Gestalt von Auswahlmöglichkeiten, z. B. alternative Drittparteien angesichts von Zweifeln an der Unparteilichkeit vorhandener Drittparteien (etwa Bewertungsplattformen), Ausweichen auf andere Informationsquellen oder Einholen einer zweiten Meinung. Der Additiv-Verbund steht für komplementäre Akteur-Mixe, etwa zwischen Manipulatoren und ihren Unterstützern. Diese Mixe verstärken den Impact und fördern den Erfolg durch Synergien und andere Integrationseffekte. Das gilt für Manipulatoren und Zertifizierungsagenturen oder Wirtschaftsprüfungsgesellschaften (Reputationsverstärker), Komplizen, Spione, Privatdetektive, „gekaufte“ Medien, Trolle sowie Cybercrime-as-a-Service-Provider (z. B. Lockbit, REvil). Spiegelbildlich gilt dies auch für Targets einerseits und Rechtsbeistände, Provider von IT-Security-Services und Versicherungen andererseits.

Die Komplexität des Akteur-Verbunds äußert sich ferner in den quantitativen Relationen zwischen der Anzahl der Manipulatoren und der Anzahl der Targets: 1:1-Konfigurationen liegen beispielsweise vor bei der Sperrung eines Social Media-Accounts oder einem Mobbing mittels Irreführung. Bei einem Churning schichtet ein Vermögensverwalter das Depot eines Anlegers häufig um und berechnet dafür zu Lasten seines Auftraggebers mehrfach Provisionen. 1:2-Konfigurationen kennzeichnen Doppelagenten und Absatzmittler, die sowohl Hersteller als auch Kunden manipulieren können. Man denke an – die für ihre Werbung vom Hersteller bezahlten – Influencer, die gegenüber Kunden eine Schleichwerbung betreiben, ohne dass dies für die Hersteller transparent gemacht würde (Leung et al 2022). Für Anbieter entsteht dabei oft eine diffuse Intransparenz (hinsichtlich des Absatzpotenzials), für Abnehmer eine konkrete Irreführung. Spiegelbildlich bleibt für die Abnehmer oft unklar, ob bestimmte Produkte vom Hersteller oder vom Betreiber eines virtuellen Marktplatzes (wie z. B. Amazon) angeboten werden. 1:n-Konfigurationen treten auf bei einer Internet-Abschaltung, Zensur, Meinungsmanipulation durch Massenmedien, Wahlmanipulation zu Lasten mehrerer alternativer Kandidaten, beim Staatsdoping sowie durch ein induziertes Mitläufer-Verhalten unter den Konsumenten (Bandwagon-Effekt). Spiegelbildlich existieren 2:1-Konfigurationen in Gestalt von Good Guy-Bad Guy-Tandems bei Verhandlungen oder bei „unheiligen Allianzen“ von zwei Manipulatoren, etwa im Fall von Kick-Backs: Bei dieser verdeckten Provisionsrückvergütung betreiben z. B. Versicherungsunternehmen und Versicherungsmakler eine konzertierte Manipulation (das Versicherungsunternehmen zahlt dem Vermittler einen Teil der Vermittlungsprovision zurück), was für Anleger (Targets) intransparent gehalten wird, so dass für diese eine überhöhte Vermittlungsgebühr entsteht. Die m:1-Konfigurationen beschreiben die Situation, dass Mehrheiten einen manipulationsbasierten (Gruppen-)Druck zur Änderung der Meinungen und Entscheidungen einzelner Gruppenmitglieder ausüben. Schließlich finden sich m:n-Konfigurationen in forensischen Gerichtskonstellationen (wo sowohl Manipulatoren als auch Targets mit Rechtsbeiständen und Gutachtern auftreten) oder im Fall von Hacker-Kollektiven, die das Verhalten von Wechselwählern, Erstwählern oder Nicht-Wählern beeinflussen wollen. Bei kollektiven Tarifverhandlungen operieren Arbeitgeberverband und Gewerkschaften nicht selten mit irreführenden und/oder undurchsichtigen Argumenten, etwa zur Streikbereitschaft. Darüber hinaus ist zu beachten, dass einige Unterstützer der Targets einen sehr weiten Wirkungskreis besitzen. Die gilt allen voran für die Resilienzstärkung durch Verbraucherschutzorganisationen, das European Crime Prevention Network, die polizeiliche Kriminalprävention der Länder und des Bundes sowie nationale und supranationale Gesetzgeber, die Schutzgesetze in Form von Anti-Manipulationsgesetzen implementieren. Man denke etwa an Geldwäschegesetz, Anlegerschutzverbesserungsgesetz, Marktmissbrauchsverordnung (der EU), Transparenzgesetze wie das Lieferkettengesetz oder die Datenschutzgrundverordnung, Fernabsatzgesetz (Widerrufsrecht sowie Umtausch und Rückgaberecht), die Haftung von Wirtschaftsprüfern im HGB, Finanzmarktintegritätsstärkungsgesetz sowie gesetzlich geregelte Publizitäts- und Meldepflichten. Fehlende internationale Regelungen für desinformative Inhalte erlauben es dabei Manipulatoren, nationale Regelungen zu umgehen. Schleichwerbung oder unterschwellige Werbung in traditionellen Rundfunk-, Fernseh- und Filmmedien werden in Deutschland u. a. durch Medienstaatsvertrag oder Rundfunkänderungsstaatsvertrag geregelt. Sie schreiben etwa Kennzeichnungspflichten für entgeltliche Produktplatzierungen sowie für unentgeltliche Produktionshilfen von bedeutendem Wert vor. Flankierend kommen Selbstverpflichtungen wie der Pressekodex des Deutschen Presserats, der Welt Anti-Doping Code oder die Selbstregulierung mittels Community Standards von großen Social Media-Plattformen beim Kampf gegen Desinformation und manipulierende Wahlwerbung zum Einsatz.

Die skizzierten rein quantitativen Konfigurationen werden allerdings der Vielfalt des Akteur-Verbunds nicht gerecht: Eine Diversität unter mehreren Manipulatoren charakterisiert beispielsweise die Kick-Backs. Die Diversität von Targets wird besonders deutlich, wenn Unternehmen (und vorsätzlich manipulierende Abschlussprüfer) mehrere Adressatengruppen, sprich Shareholder, Lieferanten, Großkunden (Key Accounts), Kreditgeber, Mitarbeiter und den Fiskus durch geschönte Jahresabschlüsse betrügen. Diversität resultiert darüber hinaus aus verschiedenen Varianten der Betroffenheit von einer agnotologischen Strategie: Die Steuervermeidung durch einzelne Manipulatoren betrifft z. B. nicht nur den Fiskus, sondern auch die ehrlichen Steuerzahler, weil diese kompensatorisch höhere Steuern zahlen müssen, um das Steueraufkommen sicherzustellen. Offensichtlich gibt es neben den Destinataren der Manipulation, die nach dem Willen des Manipulators ein Disabling erleiden sollen, auch weitere faktische Träger des Schadens, etwa dann, wenn der Destinatar den Schaden überwälzen kann, z. B. mit einem Versicherungsvertrag (z. B. Haftpflichtversicherung von Abschlussprüfern, Rechtsschutzversicherung) auf eine Versichertengemeinschaft. Target-Vielfalt kennzeichnet ferner die heterogene Konfiguration der Targets: So hat nicht selten das Hacking eines Herstellers den Verlust von Daten seiner Abnehmer zur Folge. Lobbyismus bezweckt einerseits die manipulative Beeinflussung legislativer Instanzen (ohne deren monetäre Schädigung), andererseits den monetären Wettbewerbsvorteil gegenüber Konkurrenten eines Manipulators und seiner Klientel. Beim Mobbing werden falsche Tatsachenbehauptungen zur Irreführung des Umfelds einer Zielperson verbreitet, um das Mobbing-Opfer zu schädigen. Börsenkursmanipulationen richten sich sowohl auf eine Irreführung der Börsenaufsicht als auch von Aktionären. Ein Greenwashing durch einen Hersteller verursacht neben einem Wissensabbau bei den Käufern (Irreführung und Fehlkauf) möglicherweise auch eine Imageschädigung für die gesamte Branche. Solche externen Effekte generieren nicht nur negativ Betroffene, sondern mitunter auch positiv Betroffene: Zu den Nutznießern einer aufgedeckten Börsenkursmanipulation zählen möglicherweise die konkurrierenden Emittenten an der Börse.

Nicht nur die Existenz mehrerer Akteure, sondern auch das Beziehungsgeflecht zwischen diesen Akteur-Kategorien ist erfolgsrelevant: Das gilt etwa für intrafamiliäre Beziehungen. Hier sind Kinder die bevorzugten Targets für irreführende Werbung aufgrund von Leichtgläubigkeit (z. B. Nudgeability, De Ridder 2022) und wenigen Wissensbarrieren, die Fehl-Kaufentscheidungen treffen hingegen die durch Kinderwünsche beeinflussten Eltern. Ferner macht sich ein durch irreführende Werbung hervorgerufener Reputationsverlust bei den Kunden auch bei anderen Stakeholdern bemerkbar, z. B. bei den Mitarbeitern. Das Risiko eines Reputationsverlusts beim Greenwashing wird beispielsweisen beim Vertrieb von Green Bonds angesichts der problematischen Einstufung von Gas und Atomkraft in der EU-Taxonomie verschärft. Auf zweiseitigen Märkten (z. B. Zeitungen, TV-Sender, Internet-Plattformen) kann eine Kundenkategorie (Werbetreibende) die zweite Kundengruppe (Content-Kunden) etwa durch Werbung für Plagiate manipulieren, wenn der Plattformbetreiber dies nicht kontrolliert und unterbindet. Gesetzgeber stärken durch Hinweisgeberschutzgesetze das Engagement von Whistleblowern, die wiederum die Resilienz von Targets verbessern.

Erfolgsrelevant sind ferner wechselseitige Beziehungen. Man denke etwa an die Schadprogrammwarnungen des Bundesamts für Sicherheit in der Informationstechnik (BSI) kombiniert mit dem Incident-Reporting an das BSI. Bezüglich der Einschätzung des Resilienzförderungspotenzials von Drittparteien ist zu beachten, dass begründete Zweifel an der Unparteilichkeit einiger Intermediäre bestehen, etwa von Suchmaschinen und Bewertungsplattformen als Informationsprovider, von Automobilclubs oder Zertifizierungsagenturen. Außerdem machen auch neutrale Drittparteien mitunter Fehler, z. B. in Form einer unbeabsichtigten Misinformation: Das sogenannte Prüfungsrisiko in der Jahresabschlussprüfung beschreibt beispielsweise das Risiko, dass vom Abschlussprüfer ein Bestätigungsvermerk erteilt wird, obwohl der Jahresabschluss wesentliche Fehlinformationen enthält, die weder vom internen Kontrollsystem eines Unternehmens noch vom Abschlussprüfer erkannt wurden. Vor diesem Hintergrund sind auch Slogans wie „Corona-Märchen – nein, danke!“ aus der EU-Corona-Initiative „Kampf der Desinformation“ skeptisch zu beurteilen.

3.2 Strategie-Verbund

Erfolg kommt selten durch eine fokussierte Einzelstrategie zustande. Vielmehr bedarf es hierzu mehrerer kumulativ eingesetzter Strategien: Einen verstärkten Manipulationseffekt kann man beispielsweise durch einen Mix aus Fake News und Pseudo-Reputation erzielen, etwa durch Kauf von etablierten Facebook Accounts oder Börsen-Gurus. Induzierte Lücken in der Wissensbasis kombiniert mit Zugangsbarrieren zu alternativen Informationsquellen eignen sich als Basis für Intransparenz und Intransparenz wiederum für eine Irreführung. Hierzu zählt ferner die kombinierte wissensbasierte und anreizbasierte Verhaltensbeeinflussung durch einen Manipulator: Beim Lobbyismus kommt beispielsweise zur Einflussnahme auf die Gesetzgebung ein Paket aus Anreizen (Bestechungsgelder) und Maßnahmen zur Verschleierung der Einflussnahme zum Einsatz.

Die Effektivität der Manipulation wird ferner durch eine Kombination agnotologischer und nicht-agnotologischer Strategien gesteigert. Um das Käuferverhalten zu manipulieren, eignet sich für die Werbung in Film und Fernsehen beispielsweise eine Kombination von unterschwelliger, intransparenter Werbung (z. B. verdeckte Produktplatzierung für einen Fahrzeughersteller) und transparenten Hinweisen auf die Produktionshilfe durch ein herstellereigenes Autoleasingunternehmen: Agnotologisch wird hierbei Intransparenz erzeugt und damit Wissen abgebaut, nicht-agnotologisch liegt hingegen ein Wissenszuwachs (Informationen zu einem Leistungsangebot) vor. Analog gilt das auch für eine Kombination von transparentem Priming (Werbung für Luxusartikel im TV-Werbeblock) und intransparentem Priming, etwa mit denselben Luxusartikeln, die von den Protagonisten im fraglichen Film verwendet werden. Ebenfalls kann man bei einem Anlagegespräch eine dubiose (jedoch als sicher deklarierte) Anlageempfehlung mit einem Mirroring kombinieren, bei dem der Anlageberater etwa persönliche Erfahrungen des Targets durch eigene Erfahrungen („Ist mir genauso ergangen“) bestätigt.

Strategie-Mixe umfassen ferner den Verbund mehrerer wissensbasierter Diagnose-Tools sowie mehrerer Interventionsinstrumente. Sie erstrecken sich jeweils auf zwei Sparten: Die Akteur-Diagnose (z. B. Robotertest) zum einen und die Instrumentendiagnose (z. B. Gerüchte) zum anderen. Auf dem Gebiet der Manipulations- bzw. Resilienzinstrumente ist die Diagnose auf Wissensinhalte und Wissensinfrastrukturen (als Einsatzgebiete von Instrumenten des Wissensabbaus) einerseits bzw. auf die Resilienzstärke andererseits gerichtet. Als erfolgskritisch erweist sich dabei auch die Wahl des Verbundmusters: Das gilt etwa für simultane Verbundmuster, z. B. die manipulationsverstärkende Mischung von „Fakten und Fakes“ in ein und derselben Botschaft anstelle von „Fakten oder Fakes“. Hierfür eignen sich beispielsweise KI-Algorithmen zum Deep Learning (Cartwright et al. 2022). Das gilt gleichermaßen für die offensive Kombination von Irreführung und Intransparenz (z. B. Deklaration von Hochrechnungen als amtliche Wahlergebnisse oder von „de lege ferenda“ als „de lege lata“), flankiert durch eine Blockade von Ausweichoptionen für die Informationsbeschaffung, etwa mittels Exklusivvereinbarungen von Journalisten mit Informanten. Ein sequenzielles Verbundmuster operiert beispielsweise mit dem intermittierenden Einsatz von Irreführung und wahrheitsgemäßer Information, etwa im Rahmen eines Customer Relationship Managements zwischen Anbietern und Abnehmern. In einer subsidiären Strategiekombination kommen Angriffe auf die Wissensinfrastruktur zum Einsatz, wenn Irreführung oder Verschleierung aufgrund von vorhandener Resilienz des Targets nicht den erwünschten Erfolg erzielen. Sequenzielle Strategiekombinationen bestehen ferner aus einer irreführenden Anlageempfehlung, die im Falle von Abwehrmaßnahmen der Anleger durch ein Spamming der Anleger (z. B. mit Börseninformationen) hinterlegt wird (Frieder; Zittrain 2007).

Auch auf der Seite der Targets werden kombinierte Resilienzstrategien eingesetzt. Das klassische Vorbild stammt aus dem generischen Risiko-Management, wo präventive Maßnahmen der Manipulationsvermeidung (Ziel: Manipulationsresistenz) mit palliativen Maßnahmen der Schadensbegrenzung (z. B. mithilfe von Versicherungen) gekoppelt werden: Dabei erfolgt beispielsweise ein proaktiver Aufbau des Wissens über Strategien, Risiken und Manipulatoren (Früherkennung) in Kombination mit einer Späterkennung eines bereits eingetretenen Wissensabbaus und mit reaktiven Bemühungen um einen kompensatorischen Wissensaufbau. Hier sind auch klassische Formen des Akteur-Verbunds wie das Vieraugenprinzip oder Kreuzverhöre einzuordnen. Des Weiteren verbinden typische Kombinationen zur Vermeidung von Datenverlust eine informationstechnische Abschirmung, z. B. die Cyber-Security von Wissensinfrastrukturen (Eling et al. 2021) mit Filterblasen in sozialen Medien. Resilienz lässt sich ferner durch eine Herabsetzung des Anspruchsniveaus an die Wissensqualität (z. B. durch Akzeptanz von schwach spezifizierten Opak-Angeboten: Spezifikation der Hotelkategorie ohne Bestimmung des individuellen Hotels bei Pauschalreisen, vage Fixierung von Preisen als „Verhandlungssache“, Reiss 2020; Bovensiepen; Pelkmans 2020; Alvesson et al. 2022) kombiniert mit einem Quellencheck gegen Irreführung bewerkstelligen. In einigen Fällen kann subsidiär auf alternative Wissensquellen oder Übertragungsmedien zurückgegriffen werden, falls der Manipulator keine Zugangsbarrieren (z. B. durch Sperrung von Accounts, Sendeverbot für die Deutsche Welle in Russland) errichtet hat.

3.3 Symmetrische Strategieanwendung

Das klassische Strategie-Konzept beruht auf einer asymmetrischen Rollendifferenzierung unter den involvierten Akteuren nach einem einfachen Täter-Opfer-Muster: offensiver Manipulator und defensives Target. Nur der Manipulator betreibt dabei agnotologische Strategien, je nach Resilienz-Status der Targets mit unterschiedlichem Erfolg. Der Manipulator kennt die Opfer (deren entscheidungsrelevante Informationen und Wissensinfrastrukturen) und verfügt über target-gerechte Strategien. Für die Targets sind Übeltäter und Angriffsformen mehr oder weniger gut erkennbar. Die Targets ergreifen keine agnotologischen Gegenstrategien, ihre Unterstützer erfüllen lediglich eine passive Schutzfunktion, bestenfalls flankiert durch Strafandrohung für die Non-Compliance von Manipulatoren.

Dieser derzeit dominierende Modellansatz korrespondiert allerdings nur in ganz speziellen Kontexten mit den real existierenden oder den erfolgsverheißenden Mustern der Wissensmanipulation. Viele dieser Konstellationen sind durch eine stärkere Symmetrie von Rollen und Strategien der Manipulatoren und der Targets geprägt. Dass Manipulatoren kein Monopol auf Strategien des Wissensabbaus besitzen, lehren uns (traditionell ausgetragene) militärische Konflikte, Geheimdienstaktivitäten (Spionage und Gegenspionage), darüber hinaus auch Gerichtsverfahren zu Familienkonflikten (Ehescheidungen, Erbstreitigkeiten): Hier setzen beide Seiten ihre Potenziale zur Verteidigung und zum Angriff ein. Bei der wechselseitigen Generierung von Wissenslücken handelt es sich auch um ein typisches Verhaltensmuster von Vertragsparteien, z. B. durch ein bilaterales Verbergen von Informationen zwischen Principal und Agent, durch Gegenspionage zwischen Wettbewerbern (Competitive Intelligence) sowie ein Back-Hacking. Zu den agnotologischen Strategien der Targets gehören das Verstellen (z. B. Vortäuschen von Schwachstellen) und das Verleugnen der Identität.

Targets können Zugangsbarrieren zu Daten durch ein kreatives Reaktanzverhalten überwinden, um die durch agnotologische Strategien eingeschränkten Handlungsspielräume wieder herzustellen: So ermöglichen etwa Schmiergelder eine Information Disclosure, also das Aufdecken von geschützten Informationen. Das mündet letztlich in einer komplexen Rollenambiguität, innerhalb derer beide Akteure sowohl als Targets als auch als Manipulatoren agieren: In einer typischen Gefangenen-Dilemma-Konstellation hat es etwa ein Ermittler mit zwei Tatverdächtigen zu tun, die untereinander nicht kommunizieren können, so dass der Ermittler mit dem Pseudo-Geständnis eines Verdächtigen (Target) den zweiten Verdächtigen manipulieren kann. Targets sind also durchaus in der Lage, agnotologische Strategien zur Gegenmanipulation zu konzipieren. So eignet sich etwa ein Akteur-Verbund aus guter Bulle und böser Bulle als manipulatives Resilienz-Instrument, etwa wenn es mittels Übertreibung bzw. Untertreibung bezüglich des zu erwartenden Strafmaßes gelingt, das Geständnis eines Betrügers zu erlangen. Ferner können Targets die Wissensinfrastrukturen von Manipulatoren beschädigen, etwa durch eine Behinderung des Webtracking. Eine Resilienz-Stärkung lässt sich auch mit Kombinationen aus agnotologischen Gegenstrategien und anreiz- bzw. sanktionsbasierten Strategien bewerkstelligen: Wenn beispielsweise die Abmahnung (einer Irreführung) nicht zu einer Unterlassung führt, können Betroffene eine Strafanzeige mit Strafandrohung durch Gerichte oder einen etablierten „Pranger“ (z. B. öffentliche Rügen des deutschen Werberats) einsetzen. Dabei sind Grenzen für Sanktionsandrohungen („credible threats“) zu beachten. Sie resultieren teilweise aus nationalen Grenzen, etwa bei der Strafverfolgung von ausländischen Hackern.

Eingebettet sind diese Formen einer „Reverse Manipulation“ in eine symmetrisch angelegte Überprüfung der Reputation von potenziellen Unterstützern für beide Seiten: Sie nutzt beispielsweise ein Grey- bzw. Black-Listing. Ein Diagnosebedarf resultiert hierbei aus der Tatsache, dass Gütesiegel wie die Tierwohl-Label oder „Made in Germany“, aber auch investigative Einrichtungen und Befragungsinstitute sich nicht selten als eine weitere Quelle von Irreführung und nicht als eine Option zur Kompensation von Irreführung herausstellen. Zudem können Manipulatoren wie auch Targets gleichermaßen bei der Akteur-Diagnose beispielsweise den Fehler III. Art begehen, d. h. das falsche Problem in Angriff nehmen (Meckler; Boal 2020): Manipulatoren verwechseln möglicherweise Meinungsführer und Mitläufer in einem Target-Verbund. Spiegelbildlich gelingt es Targets mitunter nicht, Maulwürfe ausfindig zu machen. Manipulatoren laufen etwa Gefahr, unrealistische Lösegeldforderungen beim Ransomware-Einsatz zu stellen oder die Resilienz von Targets zu unterschätzen, etwa deren Kapazitäten zur Informationsverarbeitung bei Data Deluge-Angriffen angesichts einer Big Data-Infrastruktur. Das betrifft auch deren verfügbare Sanktionspotenziale, etwa im Zusammenhang mit Doping. Ferner attribuieren Targets mitunter eine Desinformation zu den falschen Manipulatoren.

Der Akteur-Verbund (vgl. 3.1) induziert mitunter spezifische Formen einer Rollenambiguität: So agieren etwa Kronzeugen zum eigenen Schutz simultan als Manipulatoren und als Targets: Sie werden der Manipulation beschuldigt, sind der Manipulation durch Komplizen ausgesetzt und verteidigen sich durch zweiseitige Gegen-Manipulation sowohl gegenüber Mitbeschuldigten als auch gegenüber Ermittlungsbehörden. Ähnlich gelagerte Doppelrollen sind ferner das Ergebnis von verketteter Manipulation: Der Steuerberater eines Mandanten mit Steuervermeidungsabsichten sieht sich möglicherweise zur Gegen-Manipulation in Gestalt überzogener, intransparenter Honorarforderungen ermutigt.

Als Katalysatoren für eine Strategie-Symmetrie fungieren einige „Dual Use-Instrumente“. Das trifft beispielsweise auf Hacker zu, die je nach Auftraggeber sowohl als Manipulationshelfer als auch als Resilienzhelfer (z. B. für Penetration-Tests, also simulierte Cyberangriffe) agieren. Ähnlich verhält es sich bei Bots: Hier unterscheidet man resilienzstärkende „Good Bots“ (Crawlers, Transactional Bots und Informational Bots), Bad Bots (Spammers, Scrapers, und Impersonators), die für manipulative Zwecke eingesetzt werden (Harringer 2018) sowie bifunktionale Bots wie etwa der ChatGPT (Generative Pre-trained Transformer).

3.4 Komponenten des Performance-Managements

Die voranstehenden Überlegungen zum komplex-symmetrischen Akteur-Verbund und Strategie-Verbund informieren im Kern über das Alternativenspektrum von Manipulations- und Resilienzinstrumenten. Sie enthalten allerdings keine konkreten Anhaltspunkte für die erfolgs- bzw. performanceorientierte Bewertung dieser Alternativen. Mit Blick auf die praktische Anwendung einzelner agnotologischen Strategien ist eine Abschätzung der Performance jedoch unverzichtbar. Grundsätzlich verbindet das Performance-Management zwei Kategorien von Komponenten: Erfolgskriterien (Maßstäbe, Indikatoren) einerseits und Erfolgsdeterminanten andererseits. Ein anspruchsvolles Performance-Management nach dem Motto „No management without measurement!“ erscheint angesichts der skizzierten Komplexität unrealistisch. Mithilfe eines einfachen ordinal skalierten Erfolgskriteriums kann man jedoch drei Erfolgsniveaus für einen Manipulator als Orientierungsdaten unterscheiden: Wissensverlust (exzellenter Erfolg), Wissenserhaltung (kein Erfolg) und Wissensanreicherung (z. B. verbesserte Validität des Target-Wissens als paradoxer Misserfolg). Je nach Wirkungsmächtigkeit und Wirkungsrichtung lassen sich zudem vier Erfolgsdeterminanten identifizieren: Erfolgsfaktoren, die den Erfolg verbessern, Erfolgsbarrieren, die den Erfolg behindern, Misserfolgsbarrieren, die einen Misserfolg verhindern sowie Misserfolgsfaktoren, die einen Misserfolg verursachen.

Der Erfolg von Wissensmanipulation ergibt sich häufig in einer Nullsummen-Konstellation zwischen Manipulation und Resilienz. Aus Sicht des Manipulators münden diese Win-Lose-Ansätze zwischen Wissensabbau und Resilienz in vereinfachende Erfolgsrezepte wie „Je mehr Resilienz, desto weniger Manipulationserfolg“ oder „Exzellenter Erfolg, wenn eine massive Manipulation auf Vulnerabilität trifft“. Anhand der Abbildung 2 lassen sich die Performance-Aussichten aus einer Aggregation der vier Erfolgsdeterminanten (unter Beachtung der Wirkungsrichtung) schematisch abschätzen. Bei einigen der Determinanten handelt es sich um Parameter der Manipulatoren („M“), bei anderen um Resilienz-Parameter der Targets („T“) oder um Einflussfaktoren aus dem Kontext („K“). Sie berücksichtigen den Strategie-Verbund, den Akteur-Verbund (angesichts von Chancen oder Risiken der Verbundbeziehungen) sowie die Rollensymmetrisierung beim Einsatz der Strategien.

Die Abbildung 2 verdeutlicht beispielsweise, dass agnotologische Gegenstrategien der Targets die Erfolgsaussichten von Manipulatoren reduzieren. Vor diesem Hintergrund sollten etwa Hightech-Resilienzverstärker aus dem KI-Sektor (Fan Xu 2021) oder die East StratCom Task Force der EU prüfen, ob ihre Anti-Desinformations-Algorithmen nicht nur zur Aufdeckung (z. B. von russischen Manipulationsoffensiven), sondern auch zu Gegenoffensiven genutzt werden können. Ferner informiert die Abbildung 2 über den erforderlichen Individualisierungsgrad, sowohl von Irreführung als auch von Warnungen vor Irreführung, der etwa durch pauschale Warnungen der Bafin vor unerlaubten Geschäften und Marktmanipulation nur ansatzweise erreicht wird.

Abb. 2: Determinanten des Manipulator-Erfolgs (Quelle: Eigene Darstellung).
Abb. 2:

Determinanten des Manipulator-Erfolgs (Quelle: Eigene Darstellung).

4 Ausblick

Hinsichtlich der offensiven wie auch der defensiven Strategien von Manipulatoren und Targets muss der skizzierte Modellansatz verfeinert und erweitert werden. Ohne ein solches Investment lassen sich keine Aussagen über die Erfolgsaussichten einer Verhaltensbeeinflussung bzw. eines Schutzes vor destruktiver Manipulation formulieren. Im Mittelpunkt der erforderlichen Modellverbesserungen stehen drei Bereiche:

Moderatorvariablen: Die Beziehungen zwischen Erfolgsniveau und Erfolgsdeterminanten variieren in Abhängigkeit von weiteren Einflussgrößen, die im Kontext angesiedelt sind: So erleichtert die Existenz von Steueroasen alle Bemühungen um Steuervermeidung. Targets verfügen beispielsweise in einer Neuland-Situation, z. B. neue Kryptowährungen, Virenvarianten oder Finanzinnovationen, über wenig proprietäres Wissen, das via Manipulation abgebaut werden müsste. Im Gegensatz dazu sorgt ein etabliertes dogmatisches Wissen für hohe Barrieren, die durch ausgefeilte Irreführung oder Intransparenz überwunden werden müssen. Zu den Kontextfaktoren zählen Infrastruktur-Faktoren, in die die Wissensmanipulation eingebettet ist. Die relevanten Infrastrukturen-Sektoren umfassen die ausgiebig erörterte informationstechnologische Infrastruktur. Einerseits erweist sich etwa das Internet als Goldgrube für Manipulation, andererseits aber auch als Risikofaktor: Deep Learning-Algorithmen können beispielsweise eine unkontrollierte Manipulation verursachen, weil solche „stochastischen Papageien“ nicht wissen, welchen semantischen Content sie produzieren. Hinzu kommt der Infrastruktur-Sektor „Drittparteien“, die als Dienstleister für Manipulatoren (z. B. Lobbyisten, Hacker, Service-Provider im Darknet) oder für Targets (z. B. Rechtsbeistände, Versicherungen, Verbraucherschutzeinrichtungen) bzw. als neutrale Drittparteien für die Handhabung von Konflikten dienen. Das betrifft etwa die Verfügbarkeit von Ombudspersonen, Compliance-Beauftragten, Treuhändern, Mediatoren oder einer Welt-Anti-Doping-Agentur. Hinzu kommt eine kulturelle Infrastruktur, deren Ausprägungen sich zwischen den Polen „Steuerehrlichkeit, Vertrauens- und Compliance-Kultur“ einerseits und „Kavaliersdelikte, Korruptionskultur, unlauterer Wettbewerb“ andererseits bewegen können. Eine weitere erfolgskritische Moderatorvariable ist der Zeitfaktor, vor allem für den Einsatz agnotologischer Strategien: Extrem kurzfristige Vorläufe wie bei Überraschungsaktionen (z. B. Haustürgeschäfte, Enkeltrick, extrem kurzfristig angesetzte Kaufverhandlungen, Last Minute-Unterrichtung) oder beim Hochfrequenzhandel (Blitzaufträge) schaffen Intransparenz (Manahov 2016). Verhandlungstricks durch Generierung von Zeitdruck bei Verhandlungen oder kurzen Verhandlungszeiträumen verhindern den Zugriff auf vorhandenes Wissen, sind also für Lücken in der Wissensbasis verantwortlich.

Differenzierung der Wissenskategorien: Wissensabbau hat einen unterschiedlichen Impact, je nachdem welche Kategorien von Wissen manipuliert werden: Datenmanipulation und Datenverlust (Know-that) induzieren primär Desorientierung. Die Manipulation der Einschätzungen von Personen und Institutionen sorgt für Diskriminierung und Fehlentscheidungen. Werden Erklärungsmodelle (Know-why) manipuliert, verdrängen möglicherweise irrationale Mythen, esoterische Konstrukte und (Science) Fiction die rationalen faktenbasierten Modelle. Der Abbau oder Verlust von Know-how in Gestalt von Entwürfen, Formeln, Rezepturen, Blaupausen oder Patenten verursacht eine erhebliche Schwächung der Wettbewerbsposition. Dabei gilt es, den Verbund unterschiedlicher Wissenskategorien zu beachten: Bekanntlich eignen sich personenbezogene Daten (z. B. Benutzernamen, Passwörter) oft als Schlüssel zu anderen Wissensinhalten, z. B. Kontodaten, Verträge oder Geschäftsgeheimnisse.

Kosten-Nutzen-Bewertung: Zwar signalisieren spektakuläre Skandale in Wirtschaft, Politik und Sport, die Schätzungen der Schäden durch Schattenwirtschaft und Cyber-Attacken oder der Kosten einer Wahlbeeinflussung den hohen monetären Stellenwert von Wissensmanipulation. Dennoch lassen sich zentrale Fragen zur Bewertung der agnotologischen Strategien nicht beantworten, solange die Erfolgsdeterminanten nicht präziser erfasst werden. Der Fragenkatalog für einen Manipulator enthält beispielsweise „Wann rechnet sich agnotologische Wissensmanipulation?“, „Welche Lösegeldforderungen sind realistisch?“, „Welche Bußgelder bei Aufdeckung der Manipulation kann man in Kauf nehmen?“, „Wie hoch ist der Vertrauens- und Reputationsverlust zu beziffern?“, „Wie hoch sind die Kosten von Managed Services für Cybercrime-as-a-Service oder Ransomware-as-a-Service?“ oder „Welches Kursbeeinflussungspotenzial hat die Nutzung von Insiderwissen, z. B. bei Übernahmeangeboten?“.

Spiegelbildlich müssen sich potenzielle oder faktische Targets fragen, welche Resilienzmaßnahmen sich rechnen, sprich welche Kosten für Zweitgutachten, IT-Sicherheit, Modularisierung von Wissensstrukturen oder durch Versicherungsprämien entstehen. Für Drittparteien ist u. a. zu klären, welche Kostenreduktionen sich im Gerichtswesen durch Deals erzielen lassen, wie hoch die Haftungsgrenzen für Abschlussprüfer z. B. in einem Finanzmarktintegritätsstärkungsgesetz anzusetzen sind, welche Schadenersatzforderungen berechtigt sind oder welche Kosten für Kontrollkapazitäten zur Inhaltsmoderation und Entfernung problematischer Desinformation auf den großen Social Media-Plattformen zumutbar sind.

Nur wenige dieser Fragen lassen sich mithilfe von nicht-monetären Kennzahlen, etwa den Webmetrics (Verweildauer, Konversionsrate, Besucherzahl, Absprungrate, Session Duration, Likes, Followers) beantworten. Eine Kräftefeld-Analyse, also eine Gegenüberstellung von Manipulationskräften und Resilienzkräften, kann bestenfalls den Erfolg als Effektivität erfassen, nicht aber die Effizienz, etwa die Kostenreduktion durch Deals in der gerichtlichen Aufarbeitung von Manipulationsverfahren. Selbst die Effektivität wird nur auf einem niedrigen Skalenniveau der Kräftemessung ermittelt. Präzisierung erfordert letztlich ein Performance Measurement auf Basis einer Kosten-Nutzen-Analyse. Angesichts der vielfältigen Ungewissheiten müssen in diese Kalküle z. B. nicht nur Schadensumfänge, sondern auch Schadenswahrscheinlichkeiten aufgenommen werden: Vor dem Hintergrund der charakteristischen Intransparenz gilt dies nicht nur für Wahrscheinlichkeiten des Auftretens von Manipulationsversuchen, sondern auch für die Entdeckungswahrscheinlichkeiten.

About the author

Prof. em. Dr. Michael Reiss

Prof. Dr. Michael Reiss studierte Wirtschaftswissenschaften und Psychologie an den Universitäten Frankfurt am Main und Freiburg. Von 1988 bis März 2013 war Michael Reiss Inhaber des Lehrstuhls für ABWL und Organisation an der Universität Stuttgart. Seine Publikationsliste umfasst mehr als 500 Veröffentlichungen auf den Gebieten Organisationsgestaltung, Personalführung, Kooperationsmanagement, Planung, Controlling, Qualitätsmanagement, Change-Management und Netzwerkorganisation.

Literatur

Alvesson, M. et al., 2022. Dynamics of wilful ignorance in organizations. In: The British Journal of Sociology, 73 (4), 839–858. ISSN: 0007-1315.10.1111/1468-4446.12963Search in Google Scholar

Bakken, Tore; Wiik, Erik Lawrence, 2017. Ignorance and organization studies. In: Organization Studies, 39, 1109–1120. ISSN: 01708406.10.1177/0170840617709312Search in Google Scholar

Bovensiepen, Judith; Pelkmans, Mathijes, 2020. Dynamics of wilful blindness: An introduction. In: Critique of Anthropology, 40(4), 387–402. https://doi.org/10.1177/0308275X20959432. ISSN: 1460-3721.10.1177/0308275X20959432Search in Google Scholar

Bühren, Christoph et al., 2022. Ambiguity aversion: bibliometric analysis and literature review of the last 60 years. In: Management Review Quarterly 72, 1–31. ISSN: 21981639. https://doi.org/10.1007/s11301-021-00250-921981639.10.1007/s11301-022-00261-0Search in Google Scholar

Caled, Danielle; Silva, Mário J., 2022. Digital media and misinformation: An outlook on multidisciplinary strategies against manipulation. In: Journal of Computational Social Science 5, 123–159. ISSN: 2432-2717.10.1007/s42001-021-00118-8Search in Google Scholar

Cartwright, Barry et al., 2022. Detecting and responding to hostile disinformation activities on social media using machine learning and deep neural networks. In: Neural Computing and Applications 34, 15141–15163. ISSN: 09410643.10.1007/s00521-022-07296-0Search in Google Scholar

Croissant, Jennifer L., 2014. Agnotology: Ignorance and Absence, or Towards a Sociology of Things that Aren’t There. In: Social Epistemology, 28 (1), 4–25. ISSN: 0269-1728.10.1080/02691728.2013.862880Search in Google Scholar

De Ridder, Denise et al., 2022. Nudgeability: mapping conditions of susceptibility to nudge influence. In: Perspectives on Psychological Science, 17, 346–359. ISSN: 1745-6916.10.1177/1745691621995183Search in Google Scholar

Eling, Martin et al., 2021. Cyber risk management: History and future research directions. In: Risk Management and Insurance Review, 24, 93–125. ISSN: 1540-6296.10.1111/rmir.12169Search in Google Scholar

Fan Xu, Victor et al., 2021. A Unified Perspective for Disinformation Detection and Truth Discovery in Social Sensing: A Survey. In: ACM Computing Surveys 55 (6), 1–33. ISSN: 0360-0300.10.1145/3477138Search in Google Scholar

Frieder, Laura; Zittrain, Jonathan, 2007. Spam Works: Evidence from Stock Touts and Corresponding Market Activity. Harvard Public Law Working Paper No. 135. https://ssrn.com/abstract=920553 [5.2.2023].10.2139/ssrn.920553Search in Google Scholar

Greyson, Devon, 2019. The Social Informatics of Ignorance. In: Journal of the Association for Information Science and Technology 72, DOI: https://doi.org/10.1002/asi.24143 ISSN: 2330-1643.10.1002/asi.24143Search in Google Scholar

Harringer, Claus, 2018. „Good Bot, Bad Bot“? Zur Problematik von Bot-Ontologien. In: Information. Wissenschaft & Praxis, 69(5–6), 257–264. ISSN: 1434-4653.10.1515/iwp-2018-0040Search in Google Scholar

Harringer, Claus, 2021. „Astroturfing“ als Desinformationsstrategie am Beispiel (heimlich) pharmafinanzierter Patientinnen-Initiativen. In: Information. Wissenschaft & Praxis 72(2–3),113–118. ISSN: 1434-4653.10.1515/iwp-2020-2129Search in Google Scholar

Hillmann, Julia, 2021. Disciplines of organizational resilience: contributions, critiques, and future research avenues. In: Review of Managerial Science, 15, 879–936. ISSN: 1863-6683.10.1007/s11846-020-00384-2Search in Google Scholar

Israilidi, John et al., 2012. Ignorance Management: An Alternative Perspective on Knowledge Management in Multinational Organisations, In Proceedings of the 13th European Conference on Knowledge Management (ECKM), Cartagena, Spain, 6–7 September, 493–501. ISBN: 978-1-908272-63-8.Search in Google Scholar

Leung, Fine F. et al., 2022. Online influencer marketing. In: Journal of the Academy of Marketing Science, 50, 226–251. ISSN: 0092-0703.10.1007/s11747-021-00829-4Search in Google Scholar

Manahov, Viktor, 2016. Front-Running Scalping Strategies and Market Manipulation: Why Does High-Frequency Trading Need Stricter Regulation? In: Financial Review, 51 (3), 363–402. ISSN: 07328516.10.1111/fire.12103Search in Google Scholar

Meckler, Mark; Boal, Kim, 2020. Decision Errors, Organizational Iatrogenesis, and Errors of the Seventh Kind. In: Academy of Management Perspectives, 34 (2), 266–284. ISSN: 1558-9080.10.5465/amp.2017.0144Search in Google Scholar

North, Klaus; Maier, Ronald, 2018. Wissen 4.0 – Wissensmanagement im digitalen Wandel. In: HMD Praxis der Wirtschaftsinformatik, 55, 665–681. ISSN: 1436-3011.10.1365/s40702-018-0426-6Search in Google Scholar

Pinto, Manuela Fernandez, 2015. Tensions in agnotology: Normativity in the studies of commercially driven ignorance. In: Social Studies of Science, 45 (2), 294–315. ISSN: 0306-3127.10.1177/0306312714565491Search in Google Scholar

Reiss, Michael, 2020. Komplexitätsmanagement. Stuttgart: Kohlhammer. ISBN: 9783170355934.10.17433/978-3-17-035594-1Search in Google Scholar

Reiss, Michael, 2022. Wissensmanipulation. In: Das Wirtschaftsstudium 51 (12), 1300–1307. ISSN: 0340-3084.Search in Google Scholar

Roberts, Joanne, 2013. Organizational ignorance: Towards a managerial perspective on the unknown. In: Management Learning, 44 (3), 215–236. ISSN: 1350-5076.10.1177/1350507612443208Search in Google Scholar

Ryan, Camille et al., 2020. Monetizing disinformation in the attention economy: The case of genetically modified organisms (GMOs). In: European Management Journal, 38, 7–18. ISSN: 0263-2373.10.1016/j.emj.2019.11.002Search in Google Scholar

Schwarzkopf, Stefan, 2020. Sacred Excess: Organizational Ignorance in an Age of Toxic Data. In: Organization Studies, 41 (2), 197–217. ISSN: 01708406.10.1177/0170840618815527Search in Google Scholar

Shu, Kai et al., 2020. Mining Disinformation and Fake News: Concepts, Methods, and Recent Advancements. In: Shu, Kai et al. (eds). Disinformation, Misinformation, and Fake News in Social Media. Lecture Notes in Social Networks. Cham: Springer Nature, 1–19. https://doi.org/10.1007/978-3-030-42699-6_1. ISBN: 978-3-030-42698-9.10.1007/978-3-030-42699-6_1Search in Google Scholar

Sweet, Paige L., 2019. The Sociology of Gaslighting. In: American Sociological Review, 84 (5), 851–875. ISSN: 00031224.10.1177/0003122419874843Search in Google Scholar

Zimmermann, Fabian; Kohring, Matthias, 2018. „Fake News“ als aktuelle Desinformation. Systematische Bestimmung eines heterogenen Begriffs. In: M&K Medien & Kommunikationswissenschaft, 66 (4), 526–541. ISSN: 1615-634X.10.5771/1615-634X-2018-4-526Search in Google Scholar

Published Online: 2023-05-09
Published in Print: 2023-05-31

© 2023 Walter de Gruyter GmbH, Berlin/Boston

Downloaded on 25.9.2025 from https://www.degruyterbrill.com/document/doi/10.1515/iwp-2023-2004/html
Scroll to top button