Home Kann Technik sanktionieren? Der technische Vollvollzug von Normen als soziologisches Problem
Article Open Access

Kann Technik sanktionieren? Der technische Vollvollzug von Normen als soziologisches Problem

  • Jonas Barth ORCID logo EMAIL logo and Simon Egbert ORCID logo
Published/Copyright: October 24, 2024
Become an author with De Gruyter Brill

Zusammenfassung

Angesichts der zunehmenden Autonomisierung von (algorithmischen) Technologien stellt sich immer stärker die Frage, wie solche Technologien zu regulieren sind und wie sich solche Technologien regulierend auf das menschliche Zusammenleben auswirken. Vor diesem Hintergrund wird in diesem Beitrag diskutiert, inwieweit Technologien eine sanktionierende Wirkung haben können und in welchen sozio-technischen Zusammenhängen von einer technischen Sanktionsleistung gesprochen werden kann. Im Zuge dessen werden rechtswissenschaftliche und techniksoziologische Diskussionen zusammengeführt und vor dem Hintergrund eines (rechts-)soziologischen Sanktionsbegriffs, der auf die enge Verbindung mit sozialen Normen verweist, mit Bezug auf die Beispiele autonome Waffensysteme und alkoholsensitive Wegfahrsperren, analysiert. Diese unterscheiden sich mit Blick auf ihre Regulierungsweise in zeitlicher, sachlicher und sozialer bzw. symbolischer Hinsicht. Es wird argumentiert, dass Technik in einigen Fällen in der Tat sanktionieren kann, sie aber oft lediglich eine Funktionalisierung von Normbezügen durchführt. Diese begriffliche und konzeptuelle Differenzierung scheint umso wichtiger, je breiter und stärker Algorithmen und Technik insgesamt ins gesellschaftliche Leben regulierend eingreifen.

Abstract

In view of the increasing autonomisation of (algorithmic) technologies, the question of how such technologies are to be regulated and how such technologies have a regulating effect on human social life arises with ever greater urgency. Against this background, this article discusses the extent to which technologies can have a sanctioning effect and in which socio-technical contexts we can speak of a technical sanctioning effect. In the course of this, jurisprudential and techno-sociological discussions are brought together and analysed against the background of a (legal) sociological concept of sanction, which links to the close connection with social norms, with reference to the examples of autonomous weapon systems and alcohol-sensitive interlocks. These differ in terms of their mode of regulation in temporal, factual and social or symbolic terms. It is argued that technology can indeed sanction in some cases, but often only a mediated functionalisation of norm references is carried out by technology. This conceptual differentiation seems all the more important the broader and stronger algorithms and technology as a whole intervene in social life.

Spätestens seit der griffigen, wenngleich in dieser Weise gar nicht intendierten Formel „Code is law“ (Lessig 1999: 6)[1], wird das Verhältnis von Recht und Algorithmen in der rechtswissenschaftlichen Debatte intensiv diskutiert. Ausgehend von der Prämisse, dass sich Recht und Algorithmen regulierend auswirken, wird dabei kontrovers diskutiert, ob sich die Modi der Regulierungsweise gleichen oder unterscheiden und welche Folgen sich durch algorithmische Regulierung für das Recht bereits einstellen bzw. noch zu erwarten sind.

In einer anderen – ethisch dominierten – Debatte geht es darum, ob bzw. inwiefern neuartige technische Artefakte oder technische Systeme das Verhalten von Menschen sanktionieren und inwieweit solche Sanktionen gerechtfertigt werden können. Besonderen Stellenwert erhält diese Debatte in Bezug auf die Entwicklung letaler autonomer Waffensysteme, die nicht zuletzt dazu geführt hat, ein internationales Moratorium zur Ächtung solcher Waffen anzustrengen (United Nations und Office for Disarmament Affairs 2022). Insbesondere wird bezweifelt, dass der Einsatz solcher Waffensysteme konform geht mit Forderungen des Völkerrechts und Menschenrechtsüberlegungen – denn nur ein Mensch dürfe entscheiden, einen anderen Menschen zu töten (Rauch 2020). Das muss aber nicht heißen, dass der Einsatz solcher Technologien grundsätzlich rechtswidrig ist. Vielmehr wird das entscheidende Problem darin gesehen, dass ihr Einsatz bislang rechtlich nicht ausreichend eingehegt sei (ebd.). In diesem Sinne konvergieren beide genannten Debatten in dem Problem der rechtlichen Kontrolle technischer Regulierung.

Aus soziologischer Perspektive zeigen diese Debatten jedoch noch etwas Anderes auf: Sie markieren eine Verschiebung weg von rechtlicher hin zu technischer Regulierung menschlichen Verhaltens. Das wirft die naheliegende Frage auf, welche gesellschaftlichen Folgen von dieser Verschiebung zu erwarten sind. Um diese Folgen jedoch empirisch untersuchen zu können, ist es erforderlich, zuerst die Frage zu beantworten, auf welche Weise sich beide Regulierungsformen soziologisch gesehen unterscheiden. Um diese Frage klären zu können, müssen rechts- und techniksoziologische Überlegungen miteinander verbunden werden. Dabei zeigt sich, dass sich beide Regulierungsweisen darin gleichen, dass sie Verhalten normativ steuern. Bei genauerem Besehen ist es jedoch fraglich, ob autonom funktionierende Technik – wie z. B. letale autonome Waffensysteme – überhaupt dazu in der Lage ist, Verhalten zu regulieren, indem sie es sanktioniert. Stattdessen, so zeigen wir im Folgenden, unterscheidet sich der Modus normativer Verhaltenskontrolle durch Technik grundlegend von jenem des Rechts – und zwar in sozialer, zeitlicher und sachlicher Hinsicht. Demnach hängt es bei dem Einsatz autonomer Systeme zum einen von ihrer technischen Funktionsweise und zum anderen von ihrer Einbindung in soziotechnische Konstellationen ab, ob sie tatsächlich im (rechts-)soziologischen Sinne sanktionieren.

Wir möchten mit der folgenden Analyse erstens einen Beitrag dazu leisten, ein soziologisches Verständnis davon zu entwickeln, was selbst dann auf dem Spiel steht, wenn es gelingen sollte, technische Verhaltenskontrollen rechtlich einzuhegen – oder umgekehrt, wenn das Recht versucht, Formen technischer Verhaltenskontrollen in die rechtliche Regulierung von Verhalten einzubauen. Entsprechend möchten wir für eine soziologische Analyseperspektive sensibilisieren, die technische Verhaltensregulierung zwar im Rahmen soziotechnischer Konstellationen untersucht (Bijker 1992), sich aber im Klaren ist über die Transformationen, die durchlaufen werden, wenn die Verhaltensregulation von sozialen Normen, wie es auch im Recht der Fall ist, weitgehend auf technische Normen umstellt. Gleichwohl kommt es dabei nicht nur auf die jeweilige Technologie an. Am Beispiel des Einsatzes von autonomen Waffensystemen und der Verwendung von Alkohol-Interlocks zeigen wir, dass der Sanktionscharakter beim Einsatz von Technologien auch jenseits ihrer genuinen Funktionsweise im Vorder- oder eben auch im Hintergrund stehen kann. Bei der vergleichenden Betrachtung der in wichtigen Einzelheiten differenten Fallbeispiele wird deutlich, wie unterschiedlich soziale und technische Normen jeweils zusammenwirken können. Dabei ist die Frage, ob Technik sanktioniert, nicht allein mit Blick auf die (solitäre) Technik zu beantworten, sondern bedarf einer Analyse der gesamten soziotechnischen Konstellation.

Wir werden zunächst in den Stand der oben genannten Debatten einführen und daran anschließend unsere soziologischen Anschlussfragen plausibilisieren. Für die rechts- und techniksoziologische Explikation des Verhältnisses von rechtlicher und technischer Regulierung gehen wir zunächst nicht von rechtlichen, sondern von sozialen Normen aus, von denen rechtliche Normen wiederum einen Sonderfall darstellen. Daran anknüpfend stellen wir die Form von rechtlicher und technischer Regulierungsweise menschlichen Verhaltens als Gegensatz von Sanktionierung und Funktionalisierung von Normbezügen vor. Vor diesem Hintergrund zeigen wir auf, welche Analyseperspektiven sich für die soziologische Analyse autonom funktionierender Technik erschließen lassen, indem wir entlang des Sanktionscharakters mit dem Einsatz von autonomen Waffensystemen und Alkohol-Interlocks zwei unterschiedliche soziotechnische Konstellationen diskutieren. Im Fazit fassen wir schließlich unser zentrales Argument zusammen.

1 Recht und Ethik über rechtliche und technische Regulierung

1.1 Code is law?

Unter dem Leitspruch „Code is law“ werden in den Rechtswissenschaften eine Reihe die Digitalisierung des Rechts betreffende Fragen verhandelt. Dazu gehören insbesondere Fragen, die Regulierungskapazitäten von Recht und Algorithmen zum Gegenstand haben – und zwar zum einen nach außen: Wie lässt sich das Verhalten von Menschen nach Maßgaben des Rechts regulieren und insofern steuern? Aber auch nach innen: Wenn Technik Regulierungsaufgaben des Rechts übernimmt, droht sie dann außerhalb rechtlicher Regulierungsansprüche zu stehen?

Aus soziologischer Perspektive sind an dieser Debatte insbesondere zwei Gesichtspunkte instruktiv. Betrachtet man diese Debatten als Selbstreflexion des Rechts, die Digitalisierungsprozesse im Recht zum Gegenstand hat, sprechen sie ein gesellschaftstheoretisches Interesse an der Frage an, inwieweit Digitalisierungsprozesse am Fall des Rechts mittelfristig einen gesellschaftsstrukturellen Wandel herbeiführen können. Zum anderen versuchen sich diese Debatten auf Leitunterscheidungen zwischen Recht und Technik festzulegen, mit deren Hilfe diese Selbstreflexion überhaupt erst gesteuert werden kann.

Wir werden zunächst die Leitunterscheidungen zum Gegenstand machen, mit denen in den Rechtswissenschaften das Verhältnis von Recht und Technik zum Thema gemacht wird. Danach werden wir am Beispiel des „Embedded Law“ thematisieren, was erwartet wird, wie sich das Recht angesichts der Digitalisierung entwickeln könnte.

Verschiedentlich wird bemängelt, dass im bestehenden Recht nicht immer klar zwischen Daten, Informationen und Wissen differenziert werde (Oster 2021: 111–113). Dies sei aber erforderlich, damit die Regulierungsweise von Recht und Algorithmen richtig unterschieden, als auch die Regulierungsweise von Algorithmen effektiv geltendem Recht unterstellt werden können.

Eine Position geht dementsprechend davon aus, dass sich Daten und Informationen grundsätzlich voneinander unterscheiden. Um Daten handele es sich potenziell bei allem, was der (auch technisch vermittelten) Wahrnehmung zugänglich sei. Informationen seien hingegen solche Daten, denen Bedeutung beigemessen wird, wie es bei Rechtstexten etwa der Fall sei. Bei der Digitalisierung handele es sich schließlich um einen Prozess, bei dem Informationen in ein binäres Datenschema umgewandelt werde. Das hat zur Folge, dass digitale Technik keine Informationen, sondern nur Daten verarbeite (Oster 2021). Das ändere sich auch nicht grundsätzlich mit der Entwicklung von Verfahren künstlicher Intelligenz, wie neuronalen Netzen, maschinellem Lernen oder natural language processing. Hier lassen sich im Prinzip codegetriebene von datengetriebenen technischen Regulierungsweisen unterscheiden (Hildebrandt 2018). Während erstere Daten in einem deterministischen System mit starrer Wenn-Dann-Verkettung verarbeiteten, setzten letztere darauf, (statistisch beschreibbare) Muster in Daten zu erkennen, weshalb das Ergebnis solcher Verfahren im Vorhinein nicht bekannt sein könne.

Der in diesen Debatten oftmals verwendete Ausdruck der Regulierung belässt es im Ungefähren, was mit ihm jeweils genau gemeint ist. Das ist für die Rechtswissenschaft nicht untypisch, weil der Ausdruck auch als Platzhalter für den Zusammenhang unterschiedlicher Bestandteile und Prozesse des modernen Rechts im Speziellen, wie auch des Rechts im Allgemeinen verwendet wird (Baer 2021: 90–94). Ein besonders wichtiger Bedeutungsbestandteil dieses Ausdrucks besteht jedoch in der Auffassung, dass Regulierung durch Recht mit der Steuerung von menschlichem Verhalten zusammenhängt (vgl. für viele Baer 2021). Dies wird in der Debatte um das Verhältnis von Recht und digitaler Technik auch auf letztere ausgedehnt (Hoffmann-Riem 2017), für die Differenzierung von Recht und digitaler Technik wiederum auch problematisiert. Demnach besteht die Regulierungsweise von digitaler Technik in Verhaltenssteuerung im Sinne von behaviour, während es sich bei rechtlicher Regulierung um die Steuerung von Handlungen im Sinne von action handele:

„Law, including ‘legal regulation’, is focused not merely on the modification of behaviour, but on coordinating, prohibiting and enabling action in a way that addresses individuals that are subject to law as capable of giving reasons for their actions and in a way that respects their autonomy“ (Hildebrandt 2018: 5, Herv. i.O.).

Entlang dieser doppelten Leitunterscheidung von Daten und Informationen einerseits und Verhalten und Handlung andererseits thematisieren die Rechtswissenschaften konkrete Veränderungen im Verhältnis von Recht und Technik. Wir veranschaulichen dies nachfolgend am Beispiel des „embedded law“.

Digitalen Technologien werden im Allgemeinen starke Fähigkeiten bescheinigt, Verhalten zu steuern. Das wirft die Frage auf, ob die technische Regulierung menschlichen Verhaltens seiner rechtlichen Regulierung den Rang abläuft (Hildebrandt 2015). Dabei wird davon ausgegangen, dass Recht schon allein aus wirtschaftlichen Gründen, wenigstens im Sinne codegetriebener Datenverarbeitung, digitalisiert werden müsse, da die Standardisierung und Automatisierung von allem, was im Recht standardisiert und automatisiert werden könne, mit Geschwindigkeits- und Kostenvorteilen einhergehe (Breidenbach & Glatz 2021). Recht entwickele sich daher zu sogenanntem embedded law:

„Recht wird in Prozesse und Transaktionen eingebettet. Es sorgt für sich selbst und auch dafür, dass die eigenen Standards eingehalten werden. Und Recht verliert so immer mehr an Sichtbarkeit. Es wird unsichtbar und setzt sich selbst durch“ (Breidenbach 2021: 394–395).

Die Debatte um embedded law wird in den Rechtswissenschaften auch unter Schlagwörtern wie „Impossibility Structures“ (Rademacher 2019, Rich 2012), „Selbst-Vollzug“ (Spindler 2017) oder „smart enforcement“ (Kuhlmann 2019) gefasst. In diesem Sinne wird diskutiert, ob etwa die Verwendung von smart contracts in Verbindung mit der Blockchaintechnologie, z. B. zur Abwicklung von Zahlungsvorgängen, tatsächlich eingebettetes Recht darstellt oder sich als nichtrechtliche Regulierungsform in einem Konkurrenzverhältnis zum Recht befinde (Breidenbach & Glatz 2021, Filippi & Hassan 2016, Omlor 2022, Yeung 2019). Um eingebettetes Recht handele es sich dann, wenn auf einer Blockchain automatisiert vorab rechtlich sanktionierte Verträge ausgelöst und prozessiert würden. Damit sind im Weiteren rechtstheoretische und rechtslegitimatorische Fragen verbunden. Rechtliche und rechtsrelevante Informationen eingebetteten Rechts müssen, damit sich die „Rule of law“ in der Technik durchsetzen kann, binär verdatet werden.

Sieht man einmal davon ab, dass die Einbettung selbst nicht immer glatt abläuft, sondern auch einem Katz-und-Maus-Spiel gleichen kann (Yeung 2019), wirft dies die Frage auf, ob auf diese Weise technisiertes Recht entlang der in dieser Debatte verwendeten Leitunterscheidung von Daten und Informationen überhaupt noch Recht darstellt (Hildebrandt 2015). Dabei wird versucht, diese Frage zu entschärfen, indem Rechtsregelungsformen daraufhin untersucht werden, welche ihrer Bestandteile bereits in sich einen so hohen Standardisierungsgrad aufweisen, dass sie möglicherweise keiner menschlichen Auslegung mehr bedürfen und in dieser Weise als Baustein technisch automatisierter Rechtstexterstellung und Rechtsentscheidung eingehen können (Breidenbach & Glatz 2021: Kap. 2) Damit würde nicht das gesamte Recht digitalisiert, sondern nur einzelne Bestandteile. Daneben müssten dann auch solche verdateten Rechtsbestandteile weiterhin rechtlicher Kontrolle unterstehen (Oster 2021).

Auffällig an der Debatte ist, dass die Normeinhaltung in den Vordergrund gerückt wird, also die Frage, wie die technische Regulierung menschlichen Verhaltens dazu gebracht werden kann, rechtskonform zu funktionieren. In den Hintergrund rücken dabei Fragen der Möglichkeit von und des Umgangs mit Normverletzungen. Nur selten wird gefragt, ob in Technik auch ein Recht auf Normverletzung eingebaut werden müsse (Rademacher 2019). Der Umgang mit Normverletzung a) durch Technik und b) von durch Technik gesteuertem menschlichen Verhalten spielt in einer zweiten einschlägigen Debatte eine größere Rolle, die wir mit der Debatte um embedded law verbinden möchten: jener um die Frage nach der Sanktionierung durch Technik.

1.2 Verhaltenssteuerung durch Technik – Sanktionierung durch Technik?

In diesen Diskussionen werden technisch vermittelte Formen der Steuerung menschlichen Verhaltens mit Bezug auf Normverletzungen in zweierlei Hinsicht geführt. Erstens in der Weise, dass auch avancierte Technologien dazu eingesetzt werden können, normwidriges Verhalten ex post zu sanktionieren, wie es bei bewaffneten Drohnen der Fall ist (1). Zweitens in der Form der Verhinderung normverletzenden Verhaltens ex ante. Dies scheint bei genauerem Besehen nicht nur auf avancierte, sondern auch auf weniger komplexe Technologien wie etwa Alkohol-Interlocks zuzutreffen (2).

1) Die Frage nach Möglichkeiten und (rechtlichen) Grenzen der Sanktionierung durch bzw. mit Technik wird derzeit besonders intensiv diskutiert unter Verweis auf bewaffnete unbemannte Luftfahrzeuge, oft als Drohnen bezeichnet. Dies hat vor allem damit zu tun, dass Drohnen gerade im militärischen Bereich früh vergleichsweise umfassend eingesetzt wurden und u. a. bereits Aufgaben der gezielten Tötung von (potenziellen) Terrorist:innen übernommen haben (Krasmann & Weber 2015, Gholiagha 2015, Allinson 2015). Aus Sicht der (militärischen) Anwender:innen wurden Drohnen als „game changer“ (Kahn 2013: 200) bezeichnet, bieten sie doch die Möglichkeit, ohne unmittelbaren Personaleinsatz und daher unter deutlich reduziertem menschlichen Risiko gleichsam an allen Orten der Welt militärische (Tötungs-)Missionen durchzuführen (Krasmann & Weber 2015: 3). Dies hat, wie wir in Kapitel 4.1 zeigen werden, zahlreiche rechtliche wie ethische Fragen aufgeworfen, die sich insbesondere um Fragen der Haftung wie auch der Verantwortungszuschreibung drehen. Dies zeigt bereits, dass diesen und ähnlichen Technologien, zumindest mittel- bis langfristig, zugetraut wird, dass sie autonome Entscheidungen übernehmen, die im soziotechnischen Zusammenhang als Sanktionierung begriffen werden können.

2) Explizit mit Verweis auf den Sanktionierungsbegriff, allerdings mit Bezug auf eine weniger avancierte Technologie, nämlich atemalkoholgesteuerte Wegfahrsperren (sogenannte Interlocks), haben Egbert und Paul (2019) diskutiert, dass dieser Art von Technologie zu eigen ist, dass sie gänzlich ohne menschliche Zwischenschaltung das Fahrzeug blockieren können, wenn sie einen erhöhten Atemalkoholwert detektieren. In der Situation und aus Sicht der Person, der das Starten des Fahrzeugs maschinell verwehrt wird, so ihre These, wird die Blockade als Sanktionierung des Alkoholkonsums wahrgenommen.

Blickt man auf den bereits erwähnten rechtswissenschaftlichen Diskurs rund um den Begriff der „impossibility structures“ (Rich 2012, Rademacher 2019), wird deutlich, dass es noch viele weitere Beispiele gibt, wo Technik genutzt wird, um normverletzendes Verhalten unmöglich bzw. wenigstens schwieriger durchführbar zu machen, wie beispielsweise Sicherungsmaßnahmen jeglicher Art (Schlösser, Mauern, Wände, Türen etc.), Banktresore und Drehkreuze (Beck 2020: 13). Eine neue, algorithmengestützte Technologie, die in diesem Zusammenhang immer wieder erwähnt wird und strukturelle Ähnlichkeiten zum Interlock-Beispiel aufweist, sind Upload-Filter (Rademacher 2019: 703, Beck 2020: 13). Diese algorithmischen Systeme basieren auf Techniken des maschinellen Lernens, die autonom erkennen können sollen, wenn beispielsweise Video-Beiträge, die auf einer Internet-Plattform hochgeladen werden, urheberrechtliche oder sonstige Verletzungen darstellen, was bei Bejahung dieser Frage zu einer Unmöglichkeit für die Nutzenden führt, diesen Inhalt hochzuladen (Volkmann 2019).

Auch in der Techniksoziologie wird mit Blick auf die Verhaltenssteuerung von Technik schon seit längerem diskutiert, was technische von menschlicher Regulierung unterscheidet. So zeigt beispielsweise Bruno Latour in seinen Gedankenexperimenten zu Alltagsgegenständen unterschiedlicher, aber stets disziplinierender Art, auf, was passiert, wenn es Menschen auf Grund von technischen Vorrichtungen unmöglich oder kostenintensiver gemacht wird, sich normverletzend zu verhalten. So diskutiert er beispielsweise die Betonschwelle auf Fahrbahnen, um die Einhaltung von Geschwindigkeitsbegrenzungen durchzusetzen (Latour 1992: 244). Auch stellt er den durch ihn berühmt gewordenen „Berliner Schlüssel“ vor, der in Verbindung mit entsprechenden Türen so konstruiert ist, dass man die Tür hinter sich verriegeln muss, will man den Schlüssel nach dem Durchschreiten der Tür weiter mit sich führen – der im Berlin des frühen 20. Jahrhunderts genutzt wurde, um die Bewohner:innen zu zwingen, die Tür hinter sich zu schließen (Latour 1996: 37–52).

Eine ähnlich gelagerte techniksoziologische Diskussion rekurriert auf das Schlagwort von Technik als sozialer Institution, um zu verdeutlichen, dass Technik in vielen Fällen in bewusst verhaltenssteuernder Weise konzipiert ist (Schulz-Schaeffer 2007, vgl. Dolata 2011: 48–49). In diesem Zusammenhang spricht Bartl (2023: 49) auch von „Sanktionsmechanismen“, die in Technik eingeschrieben werden. Mit Verweis auf Linde (1972: 59) kann hier beispielsweise auf die arbeitsstrukturierenden und verhaltensregulierenden Effekte von Fließbändern hingewiesen werden, die einen bestimmten Arbeitsrhythmus vorgeben und wesentlich die Geschwindigkeit, mit der die Arbeiter:innen ihrer Handlungen durchführen müssen, präformieren. In diesem Zusammenhang ist auch an das Konzept des technologischen Skripts zu denken, welches darauf rekurriert, dass Technikentwickler:innen zum einen bestimmte Nutzungsweisen ihrer Erzeugnisse vorzugeben trachten, andererseits im Zuge des technischen Entwicklungsprozesses antizipiert wird, wie ein Produkt von Personen genutzt wird und wie man diese Nutzungsweisen, z. B. durch das Design der Technik, zu steuern vermag (Akrich 1992).

Die vorgenannten Überlegungen werfen nicht nur die Frage auf, inwiefern der Einsatz solcher Technologien rechtlich gerechtfertigt oder gar dazu verwendet werden kann, Recht automatisiert zu exekutieren, sondern grundsätzlicher, auf welche Weise Technik menschliches Verhalten zu steuern vermag. Wenn es zutrifft, dass Technik nicht Handeln, sondern Verhalten steuert, weil die Technik dem Verhalten gerade keinen Sinn beimisst, wie es in Teilen der Rechtswissenschaften bereits diskutiert wird (s. o.), dann hat dies auch Folgen für den innertechnischen Umgang mit normverletzenden Verhalten.

Wir schließen an den Stand der rechtswissenschaftlichen Debatte an, dass rechtliche und technische Regulierung menschlichen Verhaltens nicht miteinander gleichgesetzt werden dürfen. Ausgehend von dem Allgemeinplatz, dass rechtliche Regulierung normative Steuerung von Verhalten bzw. Handeln impliziert, machen wir im Folgenden einen Vorschlag zur Differenzierung von rechtlicher und technischer Regulierung ausgehend von einem gängigen soziologischen Verständnis sozialer Normen. Dabei argumentieren wir, dass auch technische Regulierung auf normativer Verhaltenssteuerung basiert. Der entscheidende Unterschied zwischen beiden Regulierungsweisen besteht hingegen in der Art und Weise, wie Normen jeweils wirken. Das hat unmittelbare Folgen für die empirische Analyse der Wirkung von Technik. Insofern nämlich Drohneneinsätze auch den Tod von Menschen zur Folge haben können, erscheinen sie als Sanktionen normwidrigen Verhaltens – wenigstens aus Perspektive derer, die solche Einsätze befehligen. Vor dem Hintergrund unserer Argumentation erweist sich dies in Bezug auf die Funktionsweise der Technik jedoch als nicht schlüssig. Daher zeigen wir im Vergleich von (teil-)autonomen Waffensystemen und Alkohol-Interlocks auf, dass der Sanktionscharakter im Einsatz von Drohnen wesentlich auf die soziotechnische Konstellation zurückzuführen ist, in der sie eingesetzt werden.

2 Rechtliche und technische Verhaltenssteuerung

2.1 Normen

Um untersuchen zu können, inwieweit manche Technik automatisch sanktioniert, müssen wir einen hinreichend präzise definierten Sanktionsbegriff verwenden, bei dem die Bedingungen spezifiziert sind, was erfüllt sein muss, damit es sich um eine Sanktion handelt. Hierbei ist dem Umstand Rechnung zu tragen, dass diese Bedingungen sich mit dem Gattungstypus von Normen ändern, deren Verletzung negativ bzw. deren Befolgung positiv sanktioniert werden soll. Während wir aus Gründen der Einfachheit von speziellen Normen, wie etwa religiösen oder spezifischen Gruppennormen, absehen wollen, müssen wir wenigstens die Unterscheidung zwischen allgemein sozialen und speziellen rechtlichen Normen treffen. Dies ist schon allein deshalb notwendig, weil die meisten Technologien außerhalb eines engeren rechtlichen Kontextes eingesetzt werden, zugleich jedoch meist rechtlich reguliert sind. Entsprechend müssen wir auch die Frage nach dem Übergang allgemeiner sozialer Normen zum modernen gesatzten Recht (systematisch und nicht historisch) berücksichtigen.

Soziale Normen begreifen wir als Verhaltensvorschriften, deren verhaltensmäßige Befolgung zukünftig erwartet und an einem Sollensmaßstab gemessen werden, deren verhaltensmäßige Entsprechungen ausreichende Regelmäßigkeiten aufweisen und deren Nichtbefolgung mit einem Sanktionsrisiko verbunden sind (Popitz 1980: 10–11). Eine solche Definition impliziert, dass soziale Normen externe Beobachtung benötigen, um wirksam sein zu können: Ihre Befolgung und ihre Verletzung müssen durch andere überwachbar sein und auch faktisch überwacht werden. Daher wird der Normbegriff in der Soziologie üblicherweise mit Bezug auf die Sozialdimension erläutert. Die Überwachbarkeit von sozialen Normen setzt aber nicht voraus, dass sie im Sinne transparenter Richtschnuren allen Beteiligten im gleichen Explizitheitsgrad vorliegen. Vielmehr handelt es sich bei ihnen um mehr oder weniger diffuse Hintergrunderwartungen (Garfinkel 1967), die vor allem im Enttäuschungsfall beobachtbar werden und in diesem Fall entschieden wird, ob ihre zukünftige Befolgung weiterhin erwartet wird oder nicht. Von Norm sprechen wir dann, wenn an der Erwartung ihrer Befolgung auch im Enttäuschungsfalle festgehalten wird (Luhmann 1972/1987: 53–64).

Wichtig ist dabei die Beachtung des Sanktionsrisikos. Nicht jede beobachtete Normabweichung zieht auch eine Sanktionierung nach sich. Genauso wie die Erwartung im prognostischen Sinne unterschiedliche Wahrscheinlichkeiten des Erwarteten voneinander abheben kann, unterscheiden sich auch die erwarteten Sanktionsrisiken. Entscheidend ist dabei jedoch nicht nur die Wahrscheinlichkeit des Eintretens prognostizierten Verhaltens bzw. Sanktionierens, sondern inwieweit sich der Enttäuschte von der Enttäuschung auch selbst betroffen sieht (Lindemann 2014: 220). Erst diese ipseistische Dimension des Erwartens erschließt a), ob das Fehlgehen einer Prognose überhaupt als Enttäuschung erlebt und b), in welcher Weise mit dieser Enttäuschung umgegangen wird. Betroffenheit in diesem Sinne ist auch dann gegeben, wenn keine direkte Schädigung vorliegt. Grundsätzlich sollten beispielsweise Studierende immer pünktlich im Seminarraum erscheinen. Weicht ein:e Student:in davon ab, so wird diese Erwartung enttäuscht. Relevant wird dies, sobald die Seminarleitung oder andere Studierende auch gegenwärtig davon betroffen sind oder aber auch, wenn der geschädigte Seminarleiter einer anderen Dozentin davon erzählt und diese entrüstet fordert, man müsse hier zu schärferen Regelungen kommen.

Durkheim unterscheidet konkreter zwischen restitutiven und repressiven Sanktionen (Durkheim 1992/2012). Erstere zielen darauf ab, den gestörten Zusammenhang im Verhaltensablauf den enttäuschten Erwartungen gemäß wiederherzustellen, wohingegen Zweitere darauf abzielen, den Normabweichenden zu bestrafen. Diese unterschiedlichen Umgangsweisen mit enttäuschten Erwartungen, von denen sich der Enttäuschte selbst betroffen sieht und an deren Einhaltung er festhält, bezeichnen wir in etwas abgewandelter Form als Verhaltenskorrektur auf der einen und moralischer Schuldzuschreibung auf der anderen Seite (Barth et al. 2023), wobei in Alltagssituationen beide Aspekte so ineinander übergehen können, dass sie nur analytisch zu unterscheiden sind. Im Enttäuschungsfall einer ausbleibenden Begrüßung, die doch hätte erfolgen sollen, kann z. B. darüber informiert werden, dass eine Begrüßung „auch hier und heute“ erfolgen sollte. Wird mit einer Entschuldigung reagiert, kann die Verhaltensroutine erneuert und fortgesetzt werden (Verhaltenskorrektur). Es könnte aber auch eine Reaktion erfolgen, die in symbolisch generalisierter Weise darstellt, dass Begrüßungen „auch hier und heute“ erforderlich seien, indem die normverletzende Person an Ort und Stelle getötet wird. Eine Verhaltenskorrektur kann auf diese Weise nicht mehr erfolgen, stattdessen liegt hier die Betonung auf dem moralischen Aspekt sozialer Normen.

2.2 Recht

Berücksichtigt man, dass der Technikgebrauch auch rechtlich eingehegt ist, wird deutlich, dass sowohl der Normbegriff als auch das Sanktionsverständnis im modernen Recht eine Verengung erfahren. Im Alltag muss diese Verengung so nicht vorliegen, wobei es auch in nichtrechtlichen Kontexten dazu kommen kann, dass Verhaltenserwartungen am gesatzten Recht und dessen erwartete Regelungsgehalte angepasst sind. An ein soziologisches Verständnis modernen Rechts kann man sich herantasten, wenn man danach fragt, welches Bezugsproblem mit dem modernen Recht gelöst wird. Mit dieser Frage können wir den Übergang allgemeiner sozialer Normen zum modernen Recht beleuchten.

Hierzu verwenden wir ein mit genanntem Normenverständnis komplementäres allgemeines Rechtsverständnis, das Recht als Institutionalisierungsform solcher sozialen Normen begreift (Trotha 2000). Demnach verfügen auch Gesellschaften über ein Recht, die kein modernes Recht kennen. Die Anforderung, ein solches Recht auszubilden liegt im Gewaltpotential von Gesellschaftsangehörigen begründet. Lösen sie ihre Konflikte nur im Sinne gegenseitiger Rache, drohen Gesellschaften an ihrer eigenen Gewalt zugrunde zu gehen (Girard 1987, Popitz 1986). Rekonstruiert man Gewalt als innergesellschaftliches Geschehen, mit dem normative Ansprüche verbunden werden, so müssen Umgangsweisen mit Gewalt, die prinzipiell auch Legitimationsformen von Gewalt einschließen, als Rationalisierungsformen von Gewalt verstanden werden (Lindemann 2017b). Solche Rationalisierungsformen von auf Gewalt bezogenen sozialen Normen bezeichnen wir als Recht. Zu seiner Institutionalisierung kommt es, wenn spezifische Verkehrsformen von Gewalt soziale Geltung erhalten, die auf Dauer gestellt werden. Das setzt voraus, dass sie mit Bezug auf Dritte vergegenständlicht werden (Trotha 2000, Lindemann 2014: 115–122). Erst diese Vergegenständlichung verschafft Sanktionen Legitimation und damit auch Form, d. h. erst über Drittenbezüge wird sozial verbindlich entschieden, wer wann in welcher Weise was sanktionieren darf. Im Hinblick darauf lassen sich dann bspw. unterschiedliche Typen von Drittenbezügen ausmachen (Trotha 2000, Lindemann 2018: 175–248) bzw. unterschiedliche gesellschaftliche Ordnungstypen mit ihrem je eigenen Recht (Lindemann 2017b).

Modernes Recht kann vor diesem Hintergrund gefasst werden als spezifische Form der Institutionalisierung von auf Gewalt bezogenen sozialen Normen. Konstitutiv für modernes Recht ist dabei, dass dessen Geltung abgesichert wird über die gesellschaftsweit beanspruchte staatliche Monopolisierung von Gewaltmitteln und dem Recht, Gewalt auszuüben (Weber 2006). Damit einher gehen gesellschaftliche Zonen gebotener, verbotener und erlaubter Gewalt (Reemtsma 2008/2013). Geboten ist Gewalt dann, wenn verbotene Gewalt aufkommt. Verbotene Gewalt kommt dann auf, wenn bestimmte Praktiken infolge der rechtlichen und zivilgesellschaftlichen Selbstverständigung als illegitime Gewalt gelten. Um diese abzustellen, ist die gebotene Gewalt des staatlichen Gewaltmonopols erforderlich. Das berührt unmittelbar die Legitimationsbasis rechtlicher Sanktionen. In Form von Verfahren ist das Recht wichtiger Legitimationsbeschaffer für politische Entscheidungen und damit auch für die Durchsetzung richterlicher Anordnungen (Luhmann 1978). Die Bindung politischer Entscheidungen an das Recht treibt dabei allerdings die Paradoxie voran, dass die Rechtsgenese ihrerseits von politischen Entscheidungen abhängt (Luhmann 2000). Rechtlich kodifizierte Sanktionen zehren darüber hinaus von einer außerrechtlichen Legitimationsbasis, die spezifische Anliegen formulierenden Staatsbürger:innen (Habermas 1992), deren Rechte zwar rechtlich verfasst sind, auf deren Aktivitäten das Recht wiederum für die eigene Legitimation angewiesen ist.

Während also Sanktionen Teil eines allgemeinen Begriffs sozialer Normen sind, ist damit noch nicht ausgemacht, wer was wann auf welcher Weise sanktionieren darf. Das ist im Fall des modernen Rechts anders. In konkreten Fällen kann es immer sein, dass Sanktionen vorkommen, die jedoch im Sinne des modernen Rechts keine Sanktionen darstellen, weil sie im rechtlichen Sinne nicht legitimierbar sind – z. B. Bestrafungsaktionen im Fall ausbleibender Schutzgeldzahlungen.

Welche Rolle spielen Normen und Sanktionen nun in der techniksoziologischen Debatte?

2.3 Technik

In der Technikfolgenabschätzung können Normen eine wichtige Rolle spielen im Sinne vorab definierter Schutzgüter, in Bezug auf die die Wirkungsweise bestimmter Technologien eingeschätzt wird (Grunwald 2010: 23–27, Dusseldorp 2013). Oder sie spielen eine Rolle als mehr oder weniger explizite Maßstäbe, um neuartige Technologieentwicklungen von ihren möglichen negativen Auswirkungen her in der Zukunft einschätzen zu können (Lösch et al. 2016). Als techniksoziologischer Gegenstand spielt die Berücksichtigung von Normen jedoch nur eine untergeordnete Rolle, die dem „moralischen Gewicht“ (Latour 1996: 53) eine eher metaphorische Bedeutung verleiht. Das hat auch mit terminologischen Umstellungen zu tun, die insbesondere im Rahmen der techniksoziologisch einflussreichen Akteur-Netzwerk-Theorie vorgenommen wurden. Um Akteurseigenschaften technischer Artefakte oder anderer Entitäten im Forschungsprozess erfassen zu können, wurde auf eine symmetrische Anthropologie gesetzt, die das „Mithandeln“ menschlicher und nichtmenschlicher Entitäten im Wesentlichen als Mitwirken behandelt (Latour 2007). Das Abstellen auf die technische Leistung, ein Akteur-Netzwerk zu erweitern und darin Unterschiede zu erzeugen, indem das Handeln der anderen beteiligten Entitäten beeinflusst wird, erfordert von einem so gefassten Handlungsverständnis, Gründe des Handelns auszuschließen. Damit sind der Befassung mit Normen im Beziehungsgeschehen zwischen sich wechselseitig beeinflussenden Entitäten schon allein aufgrund der gewählten Prämissen enge Grenzen gesetzt. Die o. g. Rede Latours vom „moralischen Gewicht“ (Latour 1996: 53) eines Schlüsselanhängers misst der Wirkung eines Schlüsselanhängers moralische Folgen bei, ohne jedoch seine innere Normativität zu untersuchen.

Dabei ist bereits seit Langem klar, dass Technik nicht nur mithandelt, sondern in ihrer Genese von der Aushandlung letztlich sozialer Normen selbst abhängt (Bijker 1992). Dies wird auch beispielsweise im Konzept des verteilten Handelns berücksichtigt (Rammert & Schulz-Schaeffer 2016). Ausgehend von einem gradualisierten Handlungsverständnis, das neben der Bewirkung von Unterschieden im Gegensatz zu Latour auch Kontingenz und Intentionalität als mögliche Charakteristika von technischen Handlungen im Sinne höherer Grade berücksichtigt und diese gerade nicht an Fähigkeiten bestimmter Akteure bindet, sondern an Formen der Selbst- und Fremdbeschreibung, können soziale Normen unproblematisch eine technische Rolle spielen, etwa für die Zumessung von Agency und darauf aufbauend für Fragen der Verantwortungsbeimessung. Entsprechend ist Technik immer auch ein Symbol ihrer „Sollnutzung“ (Lindemann 2017a): Ihre normativ richtige Verwendung muss gegenüber Dritten dargestellt bzw. kann auch von Dritten infrage gestellt werden. Gerade mit Blick auf (algorithmische) Technik mit höheren Autonomiegraden ist jedoch die Berücksichtigung von Normen in Technik notwendig, weil sie nicht mehr nur einen Körperersatz darstellt, sondern sukzessive auch einen Kommunikationsersatz, insofern sie sich selbst steuert (Lindemann 2017a, Esposito 2017). Auf diese Weise würde Technik ihre Sollnutzung dann selbst durchsetzen.

Hierbei gilt es allerdings zu beachten, dass soziale Normen dort ihre Form verändern (Grosman & Reigeluth 2019). Um das zu sehen, schließen wir an die Unterscheidung von sozialen und technischen Normen bei Joerges (1989) an. Sein Vorschlag besteht darin, Technikgenese als Externalisierung sozialer Normen zu fassen und die Technik selbst als Zusammenhang technischer Normen. In der Weiterentwicklung dieses Ansatzes wird aufgezeigt, dass technische Normen bestimmte Gemeinsamkeiten mit sozialen Normen aufweisen, die sie einmal waren, jedoch auch fundamental von ihnen verschieden sind (Barth et al. 2023). Die oben erläuterte Unterscheidung von Modi des normativen Umgangs mit enttäuschten Erwartungen zwischen Verhaltenskorrektur einerseits und der Zuschreibung schuldhafter Verantwortung andererseits erfährt im Falle von Technik eine Verengung auf den Aspekt der Verhaltenskorrektur. Besser verstehen lässt sich dies jedoch erst, wenn soziale und technische Normen in der Zeitdimension miteinander verglichen werden.

Oben hatten wir bereits darauf hingewiesen, dass sozialen Normen immer ein Zukunftsbezug eingelassen ist: das Eintreffen eines bestimmten Verhaltens wird erwartet. Das Besondere liegt jedoch im zeitlichen Erleben dieser Erwartung: Das erwartete zukünftige Verhalten ist nicht nur zukünftig, sondern gegenwärtig zukünftig. Einerseits handelt es sich mit Gegenwart und Zukunft um voneinander abgehobene Modale der Zeit. Andererseits sind sie insofern nicht voneinander unterschieden, weil eine so erwartete Zukunft nur dann Bedeutung erhält, wenn der Bezug auf sie gegenwärtig erfüllt ist (Schmitz 1964). Im Falle der Technik gibt es hingegen keine voneinander abhebbaren Zeitmodale. Technik hat weder Vergangenheit, noch Gegenwart, noch Zukunft. Technik, die überhaupt über eine zeitliche Steuerung verfügt, steuert das eigene Verhalten über Formen der Vorher-Nachher-Reihung (Lindemann & Matsuzaki 2014). In potenziell sehr feiner Messung kalkuliert Technik eigene und fremde Zustände zu bestimmten Zeitpunkten und reiht davon abhängend bestimmte Operationen ein. Unabhängig von Vergangenheit, Gegenwart und Zukunft bleibt die Vorher-Nachher-Reihung stets bestehen. Gegenwärtig erfolgte Messungen müssen der Vorher-Nachher-Reihung ein- und untergeordnet werden, um Folgen für das Funktionieren der Technik zu haben. Das technologische Analogon von Erwartungsenttäuschungen kommt zustande, wenn der gemessene Zustand nicht mit dem kalkulierten Zustand zu einem bestimmten Zeitpunkt übereinstimmt. Dann wird dies als Fehler oder Warnung ausgegeben. Während soziale Normen als diffuse Hintergrunderwartungen zumeist erst im Enttäuschungsfalle explizit werden, müssen technische Normen vollständig expliziert sein (z. B. als im Code hinterlegte Funktion). Kommt der Enttäuschungsfall vor und werden (einige) soziale Normen hierdurch explizit, so werden sie behandelt, als hätten sie auch bereits in der Vergangenheit gegolten. Technische Normen gelten hingegen nur für bestimmte Zeitpunkte in nahezu beliebiger Reihung.

Wenn eine technische Norm „enttäuscht“ wurde, d. h. wenn zwischen Messung und kalkuliertem Zustand keine Passung festgestellt wird, ist es für die Technik unerheblich, ob jemand bzw. etwas moralisch verantwortlich ist für diese mangelnde Passung. Entscheidend ist hingegen, ob die Technik dazu in der Lage ist, eine Fehlerkorrektur zu durchlaufen, mit deren Hilfe sie ihr Funktionieren fortsetzen kann. Hierzu ist es erforderlich, entweder entlang vorab explizierter Zielzustände Maßnahmen zu ergreifen, die den Zielwerten wieder entsprechen. Alternativ dazu ist es auch möglich, dass bestimmte Manipulationsmöglichkeiten durch soziale Akteure bereits im Vorhinein identifiziert werden und die Technik auf eine Weise verändert wird, dass diese Möglichkeiten unmöglich oder zumindest unwahrscheinlicher gemacht werden. Beispielhaft sei hier auf die Weiterentwicklung der bereits erwähnten Atemalkoholinterlocks verwiesen, die mittlerweile auch erkennen, ob die Atemprobe nicht von einem Menschen sondern beispielsweise mit Hilfe einer Luftpumpe abgegeben wird (Dräger 2011). Latour (1996: 47) hat dies bereits mit seinem Konzept vom „Gegenprogramm“ beschrieben, wenn z. B. Schlüsselanhänger in Hotels besonders schwer und groß sind, damit Gäste nicht unerwünscht die Hotelschlüssel außerhalb des Hotels mit sich führen. Als Beispiel kann ferner die automatisierte Abstandshaltung zwischen fahrenden Autos dienen. Zielwert ist in Endlosreihung, dass ein bestimmter gemessener Abstand in Abhängigkeit zur Geschwindigkeit des Fahrzeugs nicht unterschritten wird. Im ersten Fall leitet die Technik automatisch einen Bremsvorgang ein, wenn der Zielwert unterschritten wird. Im zweiten Fall verhindert die Technik bei Unterschreiten eines zweiten, großzügiger ausgelegten Zielwerts, die weitere Beschleunigung des Fahrzeugs – z. B. durch Arretieren des Gaspedals. In beiden Fällen versucht die Technik durch Formen eigener und fremder Verhaltenskorrektur die praktische Geltung der vorausgesetzten Norm zu erhalten. Mit Luhmann (1972/1987: 40–53) gesprochen lernt Technik in der Regel also nicht (auch nicht im Fall avancierter technischer Lernmethoden im Sinne Künstlicher Intelligenz), sondern wendet mehr oder weniger ausgefeilte Methoden der Fehlerkorrektur an, d. h. sie verarbeitet „Erwartungsenttäuschungen“ normativ. Indem (avancierte automatisierte) Technik aber abstellt auf Formen der Fehlerkorrektur und die gleichzeitige moralische Zuschreibung von Verantwortung außer Acht lässt, stellt sich die Frage, ob und inwieweit es sinnvoll ist, davon zu sprechen, dass Technik sanktioniert.

Vergleicht man soziale und technische Normen im Hinblick auf die Bedeutung von Sanktionen, so können wir zusammenfassen: Soziale Normen sind grundsätzlich sanktionsbewehrt, weil mit ihnen der moralische Aspekt sozialer Normen bezeichnet und dazu verwendet wird, Verhalten zu steuern. Bei technischen Normen ist es zwar auch von erheblicher Bedeutung, dass Artefakte bzw. technische Systeme auch im Enttäuschungsfall an ihnen festhalten. Sie tun dies jedoch (bislang?) nicht mit Bezug auf den moralischen Aspekt sozialer Normen. So gesehen kann Technik nicht sanktionieren. Ausgehend von der auch in der rechtswissenschaftlichen Diskussion verwendeten Unterscheidung von Handlung und Verhalten (s. o.), könnte jedoch argumentiert werden, dass auch Technik Sanktionen als Mittel der Fehlerkorrektur verwendet.

In einem beschränkten Sinne ist dies tatsächlich der Fall. Bekanntlich verwenden die Verhaltenswissenschaften einen Sanktionsbegriff, der behavioristisch konzeptualisiert ist: ein Organismus lässt sich daraufhin trainieren, dass er mit bestimmten Verhaltensweisen bestimmte Belohnungen oder Bestrafungen verbindet. Dass gerade auch avancierte Technologien im Sinne operanten Konditionierens funktionieren, hat Zuboff (2018) gezeigt (vgl. auch Krasmann 2020). Es ist unbenommen, dass mithilfe eines solchen Sanktionsverständnisses auch außerhalb technischer Zusammenhänge versucht wird, das Verhalten anderer zu steuern. Daran ist jedoch leicht erkennbar, dass ein solches Verständnis von Sanktion(ierung) nicht nur nicht vereinbar mit dem in der Soziologie verwendeten allgemeinen Verständnis sozialer Normen ist, sondern offenkundig auch nicht ausreicht, um eine beliebige soziale Dynamik zu rekonstruieren. Das hat damit zu tun, dass z. B. der Versuch, ein Kind mithilfe operanten Konditionierens zu einem bestimmten Verhalten zu ermuntern (bzw. dieses abzutrainieren) seinerseits normativ integriert ist, die erziehende Person also nicht umhinkommt, dieses Verhalten als rollenkonformes bzw. -abweichenden Verhalten (eines Elternteils, einer Erzieherin usw.) zu interpretieren und davon auszugehen, dass das Kind früher oder später die normative Integration erkennen wird. Insofern kann operantes Konditionieren mit Bezug auf soziale Normen ein Aspekt des auf soziale Normen bezogenen Sanktionierungsbegriffs darstellen, ihn jedoch offensichtlich nicht ersetzen. Als Möglichkeit der Formulierung eines Sollwerts, an dem sich sowohl technische als auch soziale Problemlösungsroutinen ausrichten können, handelt es sich beim operanten Konditionieren allerdings um einen auch technisch offenbar gut handhabbaren funktionalisierenden Normbezug.

Technik steuert Verhalten also normativ in dem Sinne, dass sie an in sie eingelassene Erwartungen auch im Enttäuschungsfalle festhält. Anders als im Falle sozialer Normen erfolgt diese Verhaltenssteuerung jedoch nicht über den Modus der Zuschreibung moralischer Schuld und ihrer Sanktionierung, sondern im Modus der Fehlerkorrektur. Auch automatisiert funktionierende Technik sanktioniert also nicht. Damit könnte sich die Frage, ob Technik sanktionieren kann, aufgrund begrifflicher Vorentscheidungen erledigt haben. Automatisiert funktionierende Technik operiert jedoch meist nicht solitär im gesellschaftlichen Nirwana, sondern eingebunden in soziotechnische Konstellationen. Auch hier ändert sich nichts daran, dass Technik nicht selbst moralische Verantwortung zurechnet. Jedoch kann es dazu kommen, dass eine solche Verantwortungszurechnung von anderer Stelle innerhalb der soziotechnischen Konstellation erfolgt. Das kann dazu führen, dass automatisiert funktionierende Technik den Charakter eines Werkzeugs erhält, das zu Sanktionszwecken eingesetzt wird. Die Form der Verhaltenssteuerung, wie sie automatisiert funktionierender Technik jeweils zu eigen ist, wird daher soziotechnische Konstellationen nicht oder nur im Grenzfall festlegen. Der empirische Normalfall werden unterschiedliche Mischungsverhältnisse der Verhaltenssteuerung auf Grundlage sozialer und technischer Normen sein – mit jeweils mannigfachen Gestalten und gesellschaftlichen Folgen. Aber erst die begriffliche Trennung sozialer und technischer Normen macht ihr jeweiliges Zusammenwirken empirisch untersuchbar.

3 Analyse

Nachdem wir unter Rückgriff auf rechts- und techniksoziologische Literatur gezeigt haben, welche Bedeutung Normen und die daran anschließende Sanktionierung im Recht und in der Technik zukommt, wollen wir nun unter Rückgriff auf zwei empirische Beispiele – (teil-)autonome Waffensysteme und Alkohol-Interlocks – diskutieren, in welcher Weise technische und soziale Normen in soziotechnischen (Sanktionsierungs-)Konstellationen zusammenwirken können.

3.1 (Teil-)Autonome Waffensysteme

Der Einsatz von (teil-)autonomen Waffensystemen, wie sie mit Blick auf unbemannte Flugobjekte (Drohnen) am prominentesten diskutiert werden, wirft – wie oben gezeigt vgl. Kap. 2.2 – viele ethische und juristische Fragen auf. Berücksichtigt man, dass der Einsatz von Technik in der Regel keiner einfachen Zweck-Mittel-Relationierung unterliegt und die Technik die Zwecke ihrer Handhabung auch nicht einfach vorgibt, sondern ihre Bedeutung und Handhabung im Rahmen soziotechnischer Konstellationen zustande kommen (Bijker 1992), wird zur Bearbeitung der Frage, inwiefern es sich beim Einsatz bewaffneter Drohnen um Sanktionen handelt, die Unterscheidung von sozialen und technischen Normen instruktiv.

Bislang war der Einsatz von sowohl legitimer als auch illegitimer Gewalt ausschließlich Menschen vorbehalten. Mit dieser Gewalt als auch den gesellschaftlichen Reaktionen darauf wird angezeigt, welche sozialen Normen unbedingten Geltungsvorrang genießen. Bei autonomen Waffensystemen bedeutete dies bislang immer, dass der durch sie hervorgerufene Schaden auf ihn verantwortende Menschen zugerechnet werden musste, um ihn sinnvoll als (legitime oder illegitime) Gewalt thematisieren zu können. Bei waffentragenden autonomen Systemen entstehen vor diesem Hintergrund ähnliche Zuschreibungsschwierigkeiten, wie sie umfangreich auch beim autonomen Fahren diskutiert werden (Oppermann & Stender-Vorwachs 2020, Huber 2020): Auf wen oder was kann die Tötung eines anderen Menschen verantwortlich zugerechnet werden, wenn die Maschine die Tötung automatisiert vornimmt?

Solange die Zurechnung auf Menschen erfolgen muss, bleibt es dabei, dass die Technik im Sinne implementierter technischer Normen lediglich Problemlösungsroutinen abarbeitet. Sanktionieren kann die Technik erst, wenn ihr zugebilligt werden kann, legitime oder illegitime Gewalt angewendet zu haben. Insofern bei der Tötung von Menschen häufig der Fall ist, dass diese Tötung in öffentlichen Diskursen für illegitim erklärt wird, muss angenommen werden, dass unklare Verantwortungszurechnungen gerade jenen in die Hände spielen, die solche Technologien anwenden wollen. Solange also solche Technik gerade nicht sanktioniert, also auch keine Gewalt ausüben kann, ist sie in bestimmten soziotechnischen Konstellationen gerade deswegen nützlich.

Um diese Argumentation zu illustrieren, greifen wir an dieser Stelle auf den Fall der Tötung des iranischen Generals Ghassem Soleimani Anfang 2020 durch das US-amerikanische Militär zurück. Dabei war es im Zusammenspiel mit einer bewaffneten Drohne vom Typ MQ9 Reaper möglich, die Tötung per Raketenbeschuss vollständig ferngesteuert durchzuführen, ohne unmittelbare Einbindung von militärischen Kräften vor Ort (Koch 2020).

Das US-amerikanische Verteidigungsministerium hat eine Erklärung zu der Tötung des Generals veröffentlicht, die sowohl eine reaktive als auch präventiv-vorausschauende Komponente enthält (U. S. Department of Defense 02.01.2020):

„General Soleimani was actively developing plans to attack American diplomats and service members in Iraq and throughout the region. General Soleimani and his Quds Force were responsible for the deaths of hundreds of American and coalition service members and the wounding of thousands more. He had orchestrated attacks on coalition bases in Iraq over the last several months – including the attack on December 27th – culminating in the death and wounding of additional American and Iraqi personnel. General Soleimani also approved the attacks on the U. S. Embassy in Baghdad that took place this week. (…) This strike was aimed at deterring future Iranian attack plans. The United States will continue to take all necessary action to protect our people and our interests wherever they are around the world.“

Obgleich der Hauptgrund für die Tötung von Soleimani laut der Erklärung die Verhinderung zukünftiger Anschläge auf US-amerikanische Bürger:innen und deren Verbündete war, ist aus der Pressemitteilung ebenfalls herauszulesen, dass es auch um die Vergeltung zurückliegender Taten ging, insbesondere jener vom 27. Dezember 2019, also nur wenige Tage vor dessen Tötung, als schiitische Milizen eine US-Militärbasis im Irak angegriffen haben (Baade et al. 2020). Soleimani wird verantwortlich gemacht für die Tötung zahlreicher Amerikaner:innen und wurde, so ist zu interpretieren, eben auch deshalb per Drohne umgebracht. Den Befehl für die Tötung hat der damalige US-Präsident Donald Trump persönlich gegeben, durchgeführt wurde sie vom Joint Special Operations Command des US-Militärs. Rekonstruktionen des Befehlsprozesses legen nahe, dass in diesem Fall typische Abstimmungsprozesse innerhalb der Behörde nicht stattgefunden haben und der Tötung von Soleimani eine solitär getroffene, womöglich impulsive Entscheidung von Trump, der zu der Zeit auf seinem Feriensitz in Mar a Lago, Florida, weilte, zu Grunde lag (Nelles & Popp 2020).

Offensichtlich handelt es sich bei dem tödlichen Einsatz dieser Drohne also um eine ex-post-Sanktionierung normverletzenden Verhaltens. Diese Sanktionierung und mithin Zuschreibung einer Normverletzung bezieht sich wohlgemerkt auf die soziotechnische Konstellation der Tötung per MQ9 Reaper Drohne als Ganze, da es nicht die Technik alleine ist, die die Tötung vollzieht, da hier ein human in the loop verbleibt und letztlich ein Mensch die Tötung beauftragt. Allenfalls umstritten ist hier, ob es sich bei der Tötung von Soleimani um eine rechtskonforme Sanktionierung gehandelt hat oder nicht. Entsprechend kann es sein, dass mit dieser Sanktionierung nicht nur einhergeht, dass Soleimani ein moralisch schuldhaftes Verhalten zugerechnet wird, sondern dass diese Zurechnung ihrerseits als nicht hinnehmbare Erwartungsenttäuschung thematisiert wird.

In diesem Sinne wird der Einsatz bewaffneter Drohnen vor allem als Problem ihrer rechtlichen Einhegung diskutiert (Barela 2016, Bhuta et al. 2016). Das führt jedoch nicht dazu, ihr automatisches Funktionieren als eigenen Modus der Verhaltenssteuerung, sondern den Einsatz bewaffneter Drohnen als einen Fall illegitimer, weil durchs Recht nicht gedeckter, Sanktionierung von Normverletzungen anzusehen. Die mit dem hohen Automatisierungsgrad solcher Technik einhergehenden Schwierigkeiten der Verantwortungszurechnung oder des weiteren Umgangs mit unerwünschten Folgen des Technikeinsatzes erscheinen dergestalt als Problem, zu dessen Lösung ihre rechtliche Einhegung erforderlich sei.

In dieser Debatte wird die Frage aufgeworfen, ob es eine externe Überprüfungs- bzw. Kontrollinstanz geben sollte, die die Durchführung von maschinell ausgeführten Tötungen freigibt und ob diese rechtlich kontrolliert wird – beispielsweise mit einem Richter:innenvorbehalt in Form von „drone courts“ (Guiora & Brand 2016). Diese Frage unterstellt jedoch ein gänzlich anderes rechtliches Problem, das sich gar nicht auf die Technologie selbst, sondern auf den politischen Willen bezieht, sie einzusetzen. In diesem Sinne erscheint diese Technologie als Bestandteil einer rechtlich nicht eingehegten Sanktionierungspraxis eines Verhaltens, das aus Perspektive politischer Eliten als Normverletzung verstanden und sanktioniert werden soll. Das oben genannte Zurechnungsproblem wird durch diese ethisch-rechtliche Problematisierung von Drohneneinsätzen jedoch im Prinzip gelöst, wenn der Drohneneinsatz auf den rechtlich zwar nicht legitimierten aber doch scheinbar klar erkennbaren politischen Willen menschlicher Befehlshaber zurückgeführt wird. Die ethisch und rechtlich erzeugte Erwartung, dass die Technik aus Perspektiver externer Beobachter konform mit an sie herangetragenen sozialen Normen funktionieren muss, sorgt bislang dafür, dass bewaffnete Drohnen trotz avancierter Technik und trotz in sie auf der Grundlage technischer Normen eingebauter Entscheidungsroutinen ihre Sollnutzung gerade nicht selbst durchsetzen. Der Sanktionierungscharakter der Funktionsweise dieser Technik wird also nicht durch die Technik selbst, sondern durch die sozio-technische Konstellation abgesichert, in die sie eingebettet ist.

Das wirft die Frage auf, ob auch dann sinnvoll von Sanktionierung die Rede wäre, wenn der Einsatzvollzug nur auf Entscheidungsroutinen in der Technik selbst zurückgeführt würde. Diesen Fall analysieren wir im folgenden Abschnitt.

3.2 Alkoholinterlocks

Ein weiteres Beispiel für verhaltenssteuernde Technologien sind die bereits erwähnten Alkohol-Interlocks. Diese atemalkoholbasierten Zündschloss- bzw. Wegfahrsperren bieten einen passenden Bezugspunkt für diese Fragestellung, da diese Technik gänzlich ohne menschliche Zwischenschaltung ihre Kontroll- und verhaltenssteuernde Funktion ausführt.

Alkohol-Interlocks bestehen, technisch gesehen, aus zwei Apparaturen. Zum einen aus einer Vorrichtung (Handteil), die den Alkoholwert einer Person in der Atemluft bestimmt. Zum anderen aus einer zwischen Auto-Zündung und Messgerät verbauten Wegfahrsperre (Steuereinheit), die bei einem zu hohen Alkoholwert in der Atemluft der pustenden Person die Zündung blockiert und das Anlassen des Motors verhindert (Hauser et al. 2014, Dräger 2017). Dieser technische Vorgang bedarf keiner menschlichen Zwischenschaltung, jedenfalls nicht von Seiten der Kontrolleur:innen. Freilich ist die Mithilfe der auf ihren Atemalkoholwert bzw. ihrer Fahrtüchtigkeit zu überprüfenden Person notwendig, aber eine menschliche Kontrolle findet darüber hinaus nicht statt. Das technische System steuert in diesem Sinne selbsttätig, ob das Auto gestartet werden darf oder nicht. Es gibt an Ort und Stelle mithin auch keine Möglichkeit seitens der pustenden Person, ein als falsch empfundenes Ergebnis zu kontestieren und/oder in Verhandlungen über eine Ausnahmeregelung zu treten. Die Technik prüft also ausgehend von den in ihr implementierten technischen Normen selbst durch Messung, ob die Sollwerte auch eingehalten werden oder nicht. Mit anderen Worten prüft sie ihre Umwelt auf Normverletzungen.

Die (diskutierten) Nutzungskontexte von Alkohol-Interlocks in Deutschland können in zwei unterschiedliche Bereiche aufgeteilt werden. Zum einen gibt es die Forderung (z. B. vom Deutschen Verkehrssicherheitsrat 2020) und mittlerweile auch schon praktische Pilotierung (AFN Gesellschaft für Ausbildung, Fortbildung und Nachschulung e.V. 2016), alkoholauffällige Fahrer:innen, die ihren Führerschein auf Grund von Trunkenheitsfahrten abgeben mussten, im Rahmen eines Rehabilitationsprogramms mit Hilfe eines Interlocks zu unterstützen, beispielsweise indem früher die Fahrerlaubnis wieder erlangt werden kann (Nickel & Schubert 2012). Zum anderen werden Alkohol-Interlocks als verdachtsunabhängige Präventionsmaßnahme verwendet, so z. B. bei Speditionen (Wölke 2011) oder öffentlichen Nahverkehrsbetrieben (Evers 2007: 156), indem alle Fahrer:innen, unabhängig, ob sie bereits einschlägig auffällig wurden oder nicht, vor Fahrtantritt einen Alkoholtest durchführen müssen.

Vor diesem doppelten Hintergrund der autonomen Operationsweise des Interlocks sowie des Kontrollkontexts, in denen die Anwendung stets stattfindet, zeigen wir entgegen der Argumentation von Egbert und Paul (2019: 103), dass Alkohol-Interlocks über keine „automatisierte Sanktionierungskompetenz“ verfügen, sondern Verhalten funktionalisiert gesteuert wird. Denn aus Perspektive der Nutzenden kann das Alkohol-Interlock zwar durchaus als Bestrafung interpretiert werden. Damit wird die Funktionsweise der Technik selbst jedoch nicht zutreffend erfasst. Zu unterscheiden ist hier nämlich der vorgesehene Einsatzzweck der Technologie, der sie als Instrument eines technikexternen Willens begreift, von der automatischen Funktionsweise der Technik selbst. Ausgangspunkt unserer folgenden Analyse bildet daher der Output der technisch erfolgten Atemalkoholmessung, also der Fall, wenn ein normativ unzulässiger Atemalkoholwert gemessen wird.

Die Nutzenden müssen, um das Fahrzeug starten zu können, mit der Technik ‚kooperieren‘. Wenn sie nicht über geeignete Manipulationstechniken verfügen, ist es ihnen unmöglich, in alkoholisiertem Zustand das betreffende Fahrzeug zu starten. Im Unterschied etwa zu einer Atemalkoholmessung im Rahmen einer Straßenkontrolle durch die Polizei erfolgt sie hier mithin automatisiert. Bei der Straßenkontrolle (Fall 1) handelt es sich um unbestimmt viele soziale, bei der automatisierten Atemalkoholmessung (Fall 2) um eine explizit festgelegte Menge technischer Normen, die die Messung anleiten und den Verhaltensablauf im Weiteren bestimmen. Was ist damit konkret gemeint?

Im ersten Fall nimmt eine Polizeibeamtin eine routinemäßige Messung vor oder weil sie, z. B. auf Grund einer auffälligen Fahrweise des betreffenden Fahrers, einen Anfangsverdacht einer alkoholbedingten Beeinträchtigung der Fahrtauglichkeit hegt. Die Messung, die in der Regel durch Verwendung geeigneter Messtechnik – d. h. z. B. eines Atemalkoholgeräts (Alkomat) – technisch vermittelt ist, wird dazu verwendet, Normverletzungen der Fahrer:innnen anzeigen zu lassen. Um welche Normen es genau geht und in welcher Weise sie das Folgegeschehen bestimmen, hängt mit der technisch zwar unterstützten, jedoch nicht ersetzten Beobachtung der Beamtin zusammen. Zum einen setzt die Beamtin das Messergebnis mit ihrem Wissen um gesatztes Recht bzw. den daraus abgeleiteten Verfahrensroutinen ihrer Berufstätigkeit in Verbindung. Zudem können freilich auch rechtsabweichende Polizeiroutinen in Betracht kommen, wie mit diesem Messergebnis umzugehen ist, z. B. ein persönlich motiviertes Strafbegehren. Weiterhin spielt es eine Rolle, die konkrete Interaktion in der Messsituation zu gestalten, deren Verlauf maßgeblich von den kontingenten Reaktionen des Fahrers abhängt, dessen Atemluft gemessen wurde.

Entscheidend ist bei allen Normen, die hier infolge der Normenttäuschung expliziert werden, dass dem Normverletzer Verantwortung moralisch zugeschrieben wird. „Es ist verboten, dass“, „weil Sie sich falsch verhalten haben“ oder „weil Sie die Gefährdung anderer Verkehrsteilnehmer wenigstens billigend in Kauf genommen haben“ ergeht eine Sanktionsdrohung oder sogar eine Sanktionsankündigung. Ggf. kann aber auch eine Sanktionsmilderung in Aussicht gestellt werden, weil der Fahrer „schnell zur Ehefrau muss, deren Fruchtblase vorzeitig geplatzt ist“, d. h. auf die Normenttäuschung kann auch so reagiert werden, dass in diesem (Normalisierung) oder jedem (Lernen) Fall von der Geltung der Erwartung abgewichen wird. Im Zweifel kann es im Rahmen einer solchen Kontrolle durch eine Polizeibeamtin relevanter sein, den Normverstoß des Fahrers moralisierend anzuzeigen („Was erdreisten Sie sich eigentlich, den Verkehr zu gefährden“), anstatt die gestörte Interaktionsbeziehung fortzuführen („Ach kommen Sie, die paar Meter fahre ich Sie nach Hause“).

Ganz anders in Fall 2: In Teilen geht es um dieselben Normen, deren Verletzung mithilfe der automatisierten Atemalkoholmessung registriert werden. Das trifft aber nur auf jene Normen zu, die explizit und vorab in den Programmcode der Messtechnologie Eingang gefunden haben. Es können darüber hinaus keine Normen spontan und situativ einbezogen werden. Zudem entfällt die moralische Verantwortungszuschreibung vollständig. Denn für die weitere Gestaltung der Beziehung zwischen Technik und Anwender:in ist es aus Perspektive ersterer bedeutungslos, ob sich der:die Anwender:in Schuld aufgeladen hat. Während das Verhalten der Technik aus Perspektive der Techniknutzenden zwar als Sanktion interpretiert werden kann, so besitzen Sanktionsandrohung- und -ankündigung für das Funktionieren der Technik keinerlei Relevanz. Lernen in dem Sinn, dass normative Erwartungen geändert werden, kann somit per definitionem nicht stattfinden. Stattdessen besteht das ordnungsgemäße Funktionieren der Technik darin, bestimmte, im Vorhinein im Programmcode explizierte technische Normen automatisiert zu vollziehen.

Hier wird also der gesamte Zusammenhang der Normanwendung transformiert. Das bedeutet für unsere Fragestellung: Bei der Verwendung von Alkohol-Interlocks ist der Sanktionscharakter sozialer Normen für den konkreten Fall der Mensch-Maschine-Interaktion zum Zeitpunkt der Atemalkoholmessung vollständig ausgeschlossen. Erst, wenn die gesamte soziotechnische Konstellation betrachtet wird, lässt sich diese Aussage relativieren. Zu berücksichtigen sind hier einerseits der Verwendungskontext (z. B. Routineüberwachung in einer Spedition oder in Folge einer richterlichen Verfügung), andererseits aber auch die spezifischen Interaktionsfolgen des Techniknutzers mit Dritten, die erst durch diese Art der Technikanwendung zustande kommen und die durch soziale Normen reguliert sind. Begreift man techniksoziologische Analysen als Beforschung soziotechnischer Konstellationen, wird deutlich, dass es als Grenzfall anzusehen ist, dass soziale Normen vollständig durch technische Normen ersetzt werden. Eine entsprechende Analyse steht hier vor der Aufgabe, einen Normbegriff zu verwenden, mit dem gegenstandsadäquat analysiert werden kann, wie soziale und technische Normen zusammen bzw. gegeneinander wirken und wie sich auf Sanktionen beruhende zu normfunktionalisierenden Verhaltenssteuerungen verhalten.

3.3 Synthese: Von technischer Sanktionierung zur technisch vermittelten Funktionalisierung von Normbezügen

Ein zusammenfassender Blick auf beide Technologien macht deutlich, wie sich auf soziale Normen beruhende, sanktionsbewehrte Formen der Verhaltenssteuerung von solchen auf technischen Normen beruhenden, funktionalisierenden Formen der Verhaltenssteuerung unterscheiden.

In zeitlicher Hinsicht erfolgt die Verhaltenssteuerung bei sozialen Normen ex post, d. h. nachdem ein Normverstoß registriert wurde. Im Falle technischer Verhaltenssteuerung kommt dieser Fall auch vor. Das ist der Fall, wenn z. B. ein Grenzroboter einen unzulässigen Grenzübertritt beobachtet. Anders sieht es jedoch im Fall der Alkohol-Interlocks aus: Hier erfolgt die Verhaltenssteuerung ex ante. Sie besteht gerade darin, ein mögliches normwidriges Verhalten in seiner Genese auszuschließen (hier: die alkoholisierte Steuerung eines Fahrzeugs).

In sachlicher Hinsicht unterscheiden sich die Formen, Normwidrigkeiten festzustellen und entsprechende Reaktionen einzuleiten. Im Falle von Gerichtsverfahren kann die Feststellung von Normwidrigkeit stark prozeduralisiert sein oder, wie im Falle des Alltagshandelns, stärker informalisiert. In beiden Fällen handelt es sich indes um Fälle kollektiver interpretativer Praktiken, die z. B. die Zuordnung von Fall und Regel oder die Berücksichtigung schuldmehrender oder -mindernder Kontextbedingungen klären müssen. Ein solcher interpretativer Vorgang findet im Fall der verhaltenssteuernden Technik hingegen nicht statt. Wenn die Technik nicht als deterministisches System ausgelegt ist (wie im Fall der Interlocks), dann wird der Interpretationsvorgang zumindest durch probabilistische Schätzung ersetzt (ggf. wie im Fall eines Grenzroboters).

Und in sozialer sowie symbolischer Hinsicht unterliegen die bei Sanktionen für gewöhnlich eingesetzten Zwangsmittel einem Legitimationszusammenhang. Dieser betrifft u. a. die sanktionierende Instanz, die verwandten Sanktionsmittel oder auch die Anerkennung der Problemvorgabe durch die Sanktionsbetroffenen. Andernfalls könnte gar nicht abgesichert werden, dass die Sanktionierung selbst keine Normverletzung darstellte. Im Hinblick auf die verhaltenssteuernde Technik stellt sich daher die Frage, ob überhaupt, und wenn ja, in welcher Weise, technisch automatisierte Verhaltenssteuerungen einem Legitimationszusammenhang unterliegen: Sie machen ihre Verhaltenssteuerung nicht von der Zustimmung derjenigen abhängig, deren Verhalten gesteuert werden soll.

Technisch vermittelte Verhaltenssteuerung funktioniert normativ. Insofern wird ein irreführendes Bild von Technik gezeichnet, wenn sie als in sich normativ indifferent verfasst beschrieben wird. Dennoch muss zum Zweck der Analyse technisch vermittelter Verhaltensteuerung der in der allgemeinen Soziologie gängige Begriff der sozialen Norm erweitert werden, weil zugleich zutrifft, dass der in Technik eingelassene Normbezug anders ausfällt als im Alltag oder im Recht. Mithilfe von Technik kann durchaus, wie wir gezeigt haben, sanktioniert werden. Das gilt für Technik, insofern sie als Instrument eines ihr äußeren Willens verstanden wird. Für das Funktionieren von Technik selbst gilt dies nicht. Technik schreibt keine moralische Verantwortung für Normverletzungen zu, damit sie funktionieren kann. Stattdessen liegt der Schwerpunkt auf der Durchführung von Fehlerkorrekturen. Solche Formen an technischen Normen orientierter Verhaltenssteuerung bezeichnen wir als technisch vermittelte Funktionalisierung von Normbezügen.

Berücksichtigt man, dass immer mehr Lebensbereiche statt mit Bezug auf soziale immer stärker mit Bezug auf technische Normen reguliert und gesteuert werden, wird es soziologisch erforderlich, solche sozio-technischen Transformationen tiefenschärfer zu untersuchen, um besser zu verstehen, wie sich hier womöglich Vergesellschaftungsmuster verschieben. Dies gilt nicht nur für engere soziotechnische Konstellationen, sondern nicht zuletzt auch für großformatige Formen gesellschaftlicher Strukturierung, wie die kapitalistische Dynamik dieser Transformationen, die an dieser Stelle nicht weiter verfolgt werden kann, aber zweifellos einer näheren Aufarbeitung bedarf. Analysen wie die von Pasquale (2015) oder auch Zuboff (2018) weisen bereits in diese Richtung, wenngleich ein überbordender Normativismus immer auch die Gefahr zu verfallsgeschichtlichen Tendenzen aufweist. Zugleich wirft die Erweiterung des Normbegriffs aber auch die allgemeinsoziologische Frage auf, wie das Zusammenwirken von sozialen und technischen Normen im Hinblick auf die Genese von Ordnung grundlegend theoretisch zu konzipieren ist.

Die Debatte um das „embedded law“ zeigt eine Verschiebung im Verhältnis von Recht und Technik an, die schon allein aus ökonomischen Gründen vermutlich nicht aufzuhalten ist: die Kostenvorteile von smart contracts scheinen nach Ansicht vieler Beobachter:innen (und natürlich Marktteilnehmer) mögliche Nachteile durch verunmöglichte moralische Schuldzuschreibung mehr als aufzuwiegen. Dennoch scheint der Ausdruck „embedded law“ aus der hier eingenommenen Analyseperspektive insofern irreführend, weil diese Form der Rechtseinbettung in Technik zur Folge hat, dass es als technische und nicht mehr als soziale Norm funktioniert. Die Folgen lassen sich leicht in Bezug auf autonome Waffensysteme veranschaulichen: Ohne moralische Schuldzuschreibung normwidrigen Verhaltens wird der aus technischer Sicht Fehler auslösende Grenzübertritt eines Menschen ggf. zu seinem Tod führen und damit die Funktionsfähigkeit der Technik aufrechterhalten. Eine Gefahr, der sich jeder Mensch bewusst aussetzen kann oder nicht, ähnlich einem schwierigen Bergabstieg. Ggf. mit Todesfolge, aber ohne den Tod auslösende Gewalt.

4 Fazit

Wir haben in diesem Aufsatz aufgezeigt, dass automatisierte Technik mit Bezug auf in sie eingelassene technische Normen funktioniert. Wenngleich sich technische und soziale Normen darin gleichen, eigenes und fremdes Verhalten zu steuern, unterscheiden sie sich darin, auf welche Weise die Verhaltenssteuerung erfolgt. Damit hängt unmittelbar die Antwort auf die Frage zusammen, ob eine betreffende Technik sanktioniert oder nicht. Automatisiert funktionierende Technik sanktioniert nicht, um Verhalten normativ zu steuern. Gleichwohl ist zu berücksichtigen, dass Technik zumeist eingebunden ist in Handlungskontexte, die mit Bezug auf soziale Normen gesteuert werden. Dass die Sollnutzung der Technik durch die Technik selbst exekutiert wird, wie es bei vollautomatischen letalen Drohnen oder bei autonomen Fahrzeugen der Fall sein könnte, ist daher als Grenzfall anzusehen. Dennoch bedeutet dies, dass die empirische Beforschung sozio-technischer Konstellationen sich nicht nur auf die Analyse der die Technik umgebenden sozialen Normen beschränken darf, sondern die Relation von sozialen und technischen Normen stets mitberücksichtigen muss.

Literaturverzeichnis

AFN Gesellschaft für Ausbildung, Fortbildung und Nachschulung e.V. (2016) Das Alkohol-Interlock-Projekt der AFN in Dresden. Online verfügbar unter https://vpp-seidl.de/ail/pilotprojekt/content_73290/Konzept-Pilotprojekt.pdf, zuletzt geprüft am 02.11.2022.Search in Google Scholar

Akrich, Madeleine (1992) The De-Scription of Technical Objects. In: Wiebe Eco Bijker und John Law (Hg.): Shaping technology/building society. Studies in sociotechnical change. Second printing. Cambridge: MIT Press (Inside technology), S. 205–224.Search in Google Scholar

Allinson, Jamie (2015) The Necropolitics of Drones. In: Int Polit Sociol 9 (2), S. 113–127. DOI: 10.1111/ips.12086.10.1111/ips.12086Search in Google Scholar

Amos N. Guiora; Jeffrey S. Brand (2016) Chapter 13 Establishment of a Drone Court: A Necessary Restraint on Executive Power. In: Steven J. Barela (Hg.): Legitimacy and Drones. Abingdon/New York: Routledge, S. 323–357.Search in Google Scholar

Baade, Christina; Bauer, Michael; Blumberg, Fabian; Frieser, Regina; Gaier, Malte; Höfner, Steven et al. (2020) Der Tod von General Soleimani und seine Folgen. Wahrnehmung und Reaktionen im Nahen und Mittleren Osten. Hg. v. Konraad-Adenauer-Stiftung. Online verfügbar unter https://www.kas.de/de/einzeltitel/-/content/der-tod-von-general-soleimani-und-seine-folgen.Search in Google Scholar

Baer, Susanne (2021) Rechtssoziologie. Eine Einführung in die interdisziplinäre Rechtsforschung. 4. Auflage. Baden-Baden: Nomos.10.5771/9783748903079Search in Google Scholar

Barela, Steven J. (Hg.) (2016) Legitimacy and Drones. Abingdon/New York: Routledge.10.4324/9781315592152Search in Google Scholar

Barth, Jonas; Block, Katharina; Lindemann, Gesa; Fröhlich, Johanna (2023) Das Verhältnis von sozialen und technischen Normen – Zur Frage, ob die Digitalisierung gesellschaftstransformatives Potenzial besitzt. In: Berliner Journal für Soziologie 33 (3), S. 227–253. DOI: 10.1007/s11609-023-00501-4.10.1007/s11609-023-00501-4Search in Google Scholar

Bartl, Gabriel (2023) Krise und technologischer Solutionismus: Die politische Dimension des digitalisierten Umgangs mit Unsicherheit. In: Andreas Wagener und Carsten Stark (Hg.): Die Digitalisierung des Politischen. Wiesbaden: Springer VS, S. 45–62.10.1007/978-3-658-38268-1_3Search in Google Scholar

Beck, Susanne (2020) Künstliche Intelligenz – ethische und rechtliche Herausforderungen. In: Klaus Mainzer (Hg.): Philosophisches Handbuch Künstliche Intelligenz. Wiesbaden: Springer VS, S. 1–28.10.1007/978-3-658-23715-8_29-1Search in Google Scholar

Bhuta, Nehal; Beck, Susanne; Geiß, Robin; Liu, Hin-Yan; Kreß, Claus (Hg.) (2016) Autonomous Weapons Systems. Cambridge: Cambridge University Press.Search in Google Scholar

Bijker, Wiebe Eco (1992) The social construction of flourescent lighting, or how an artifact was invented in its diffusion stage. In: Wiebe Eco Bijker und John Law (Hg.): Shaping technology/building society. Studies in sociotechnical change. Second printing. Cambridge: MIT Press, S. 75–102.Search in Google Scholar

Breidenbach, Stephan; Glatz, Florian (Hg.) (2021) Rechtshandbuch Legal Tech. 2. Auflage. München, Wien: C. H. Beck.Search in Google Scholar

Deutscher Verkehrssicherheitsrat (DVR) (2020) Einführung von Alkohol-Interlocks für alkoholauffällige Kraftfahrende. Beschluss vom 28.10.2020 auf der Basis einer Empfehlung des Vorstandsausschusses Erwachsene unter Mitwirkung des Vorstandsausschusses Verkehrsmedizin. Online verfügbar unter https://www.dvr.de/ueber-uns/beschluesse/einfuehrung-von-alkohol-interlocks-fuer-alkoholauffaellige-kraftfahrer-1.Search in Google Scholar

Dolata, Ulrich (2011) Wandel durch Technik. Eine Theorie soziotechnischer Transformation. Frankfurt: Campus-Verl. Search in Google Scholar

Dräger (2011) Dräger Interlock XT. Lübeck. Online verfügbar unter https://www.draeger.com/Corporate/Content/interlock_xt_pi_9044622_de.pdf.Search in Google Scholar

Dräger (2017) Dräger Interlock 7000. Atemalkohol-Wegfahrsperre. Lübeck. Online verfügbar unter https://www.draeger.com/Library/Content/interlock-7000-pi-9094151-de-de.pdf.Search in Google Scholar

Durkheim, Emile (1992/2012) Über soziale Arbeitsteilung. Studie über die Organisation höherer Gesellschaften. 2. Aufl. Hg. v. Hans-Peter Müller. Frankfurt am Main: Suhrkamp.Search in Google Scholar

Dusseldorp, Marc (2013) Technikfolgenabschätzung. In: Armin Grunwald und Melanie Simonidis-Puschmann (Hg.): Handbuch Technikethik. Stuttgart: J. B. Metzler, S. 394–399.10.1007/978-3-476-05333-6_75Search in Google Scholar

Egbert, Simon; Paul, Bettina (2019) Atemalkoholgesteuerte Wegfahrsperren als soziotechnische Vermittler von (automatisierter) Sicherheit. In: NK Neue Kriminalpolitik 31 (1), S. 93–109. DOI: 10.5771/0934-9200-2019-1-93.10.5771/0934-9200-2019-1-93Search in Google Scholar

Esposito, Elena (2017) Artificial Communication? The Production of Contingency by Algorithms. In: Zeitschrift für Soziologie 46 (4), S. 249–265. DOI: 10.1515/zfsoz-2017-1014.10.1515/zfsoz-2017-1014Search in Google Scholar

Evers, Claudia (2007) Zündsperre – ein neuer Weg zur Alkoholprävention? Anwendungsbereiche und praktische Einsatzmoeglichkeiten von Alkohol-Interlocks. In: Blutakohol 44 (3), S. 154–158.Search in Google Scholar

Filippi, Primavera De; Hassan, Samer (2016) Blockchain technology as a regulatory technology: From code is law to law is code. In: First Monday 21 (12). DOI: 10.5210/fm.v21i12.7113.10.5210/fm.v21i12.7113Search in Google Scholar

Garfinkel, Harold (1967) Studies in ethnomethodology. 10. printing. Englewood Cliffs, NJ: Prentice-Hall.Search in Google Scholar

Gholiagha, Sassan (2015) Individualized and Yet Dehumanized? Targeted Killing via Drones. In: BEHEMOTH. A Journal on Civilisation 8 (2), S. 128–153. DOI: 10.6094/behemoth.2015.8.2.873.Search in Google Scholar

Girard, René (1987) Das Heilige und die Gewalt. Zürich: Benziger.Search in Google Scholar

Grosman, Jérémy; Reigeluth, Tyler (2019) Perspectives on algorithmic normativities: engineers, objects, activities. In: Big Data & Society 6 (2). DOI: 10.1177/2053951719858742.10.1177/2053951719858742Search in Google Scholar

Grunwald, Armin (2010) Technikfolgenabschätzung. Eine Einführung. Zweite, grundlegend überarbeitete und wesentlich erweiterte Auflage. Berlin: edition sigma (Gesellschaft, Technik, Umwelt, N. F., 1). Online verfügbar unter http://dx.medra.org/10.2380/9783836009300.Search in Google Scholar

Habermas, Jürgen (1992) Faktizität und Geltung. Beiträge zur Diskurstheorie des Rechts und des demokratischen Rechtsstaats. 1. Aufl. Frankfurt am Main: Suhrkamp.Search in Google Scholar

Hauser, Brigitte; Merz, Jürgen; Pauls, Cornelia; Schnabel, Eva; Aydeniz, Katrin; Blume, Ingeborg et al. (2014) Alkohol-Interlocks für alkoholauffällige Kraftfahrer. Bericht zum Forschungsprojekt FE 82.0514. Bremen: Fachverl. NW in der Carl Schünemann Verl. GmbH (Berichte der Bundesanstalt für Straßenwesen M, Mensch und Sicherheit, 251).Search in Google Scholar

Hildebrandt, Mireille (2015) Smart technologies and the end(s) of law. Novel entanglements of law and technology. Cheltenham: Elgar.10.4337/9781849808774.00016Search in Google Scholar

Hildebrandt, Mireille (2018) Algorithmic regulation and the rule of law. In: Philosophical transactions. Series A, Mathematical, physical, and engineering sciences 376 (2128). DOI: 10.1098/rsta.2017.0355.10.1098/rsta.2017.0355Search in Google Scholar

Hoffmann-Riem, Wolfgang (2017) Verhaltenssteuerung durch Algorithmen – Eine Herausforderung für das Recht. In: AöR 142 (1), S. 1–42. DOI: 10.1628/000389117X14894104852645.10.1628/000389117X14894104852645Search in Google Scholar

Huber, Christian (2020) Automatisiertes und autonomes Fahren – wer haftet? In: Walter Frenz (Hg.): Handbuch Industrie 4.0: Recht, Technik, Gesellschaft. Berlin, Heidelberg: Springer, S. 697–711.10.1007/978-3-662-58474-3_36Search in Google Scholar

Joerges, Bernward (1989) Technische Normen – Soziale Normen? In: Soziale Welt 40 (1/2), S. 242–258.Search in Google Scholar

Kahn, P. W. (2013) Imagining Warfare. In: European Journal of International Law 24 (1), S. 199–226. DOI: 10.1093/ejil/chs086.10.1093/ejil/chs086Search in Google Scholar

Koch, Matthias (2020) Fliegender Sensenmann: Diese Drohne tötete den iranischen General. RedaktionsNetzwerk Deutschland. Online verfügbar unter https://www.rnd.de/politik/mq9-reaper-diese-amerikanische-drohne-totete-den-iranischen-general-US5BNF72DFC4LIG4TJAIUK6O2A.html.Search in Google Scholar

Krasmann, Susanne (2020) The logic of the surface: on the epistemology of algorithms in times of big data. In: Information, Communication & Society 23 (14), S. 2096–2109. DOI: 10.1080/1369118X.2020.1726986.10.1080/1369118X.2020.1726986Search in Google Scholar

Krasmann, Susanne; Weber, Jutta (2015) Editorial. In: BEHEMOTH. A Journal on Civilisation 8 (2), S. 3–11. DOI: 10.6094/behemoth.2015.8.2.866.Search in Google Scholar

Kuhlmann, Nico (2019) Smart Enforcement bei Smart Contracts. In: Martin Fries und Boris P. Paal (Hg.): Smart Contracts: Schlaue Verträge? Tübingen: Mohr Siebeck, S. 117–124.Search in Google Scholar

Latour, Bruno (1992) Where Are the Missing Masses? The Sociology of a Few Mundane Artifacts. In: Wiebe E. Bijker und John Law (Hg.): Shaping technology, building society. Cambridge, Mass.: MIT Press (Inside technology), S. 225–258.Search in Google Scholar

Latour, Bruno (1996) Der Berliner Schlüssel. Erkundungen eines Liebhabers der Wissenschaften. Berlin: Akad.-Verl.Search in Google Scholar

Latour, Bruno (2007) Eine neue Soziologie für eine neue Gesellschaft. Einführung in die Akteur-Netzwerk-Theorie. 1. Aufl. Frankfurt am Main: Suhrkamp.Search in Google Scholar

Lessig, Lawrence (1999) Code and other laws of cyberspace. New York: Basic Books.Search in Google Scholar

Linde, Hans (1972) Sachdominanz in Sozialstrukturen. Tübingen: Mohr (Gesellschaft und Wissenschaft, 4).Search in Google Scholar

Lindemann, Gesa (2014) Weltzugänge. Die mehrdimensionale Ordnung des Sozialen. Weilerswist: Velbrück Wissenschaft.Search in Google Scholar

Lindemann, Gesa (2017a) Rekursive Technikentwicklung. In: Soziale Welt 68 (2–3), S. 261–278. DOI: 10.5771/0038-6073-2017-2-3-261.10.5771/0038-6073-2017-2-3-261Search in Google Scholar

Lindemann, Gesa (2017b) Verfahrensordnungen der Gewalt. In: Zeitschrift für Rechtssoziologie 37 (1), S. 57–87. DOI: 10.1515/zfrs-2017-0004.10.1515/zfrs-2017-0004Search in Google Scholar

Lindemann, Gesa (2018) Strukturnotwendige Kritik. Erste Auflage. Weilerswist: Velbrück Wissenschaft (Theorie der modernen Gesellschaft,/Gesa Lindemann; 1).10.5771/9783845298887-1Search in Google Scholar

Lindemann, Gesa; Matsuzaki, Hironori (2014) Constructing the Robot’s Position in Time and Space Space. The Spatio-Temporal Preconditions of Artificial Social Agency. In: Science, Technology & Innovation Studies 10 (1), S. 86–106.Search in Google Scholar

Lösch, Andreas; Böhle, Knut; Coenen, Christopher; Dobroc, Paulina; Ferrari, Arianna; Heil, Reinhard et al. (2016) Technikfolgenabschätzung von soziotechnischen Zukünften. Hg. v. Institut für Technikzukünfte. Karlsruher Institut für Technologie (KIT). Karlsruhe. Online verfügbar unter https://www.itz.kit.edu/img/2016_Andreas-Loesch_Technikfolgenabschaetzung-von-soziotechnischen-Zukuenften_final-Druck.pdf.Search in Google Scholar

Luhmann, Niklas (1972/1987) Rechtssoziologie. 3. Aufl. Opladen: Westdeutscher Verl. (WV-Studium, Bd. 1/2: Rechtswissenschaften).Search in Google Scholar

Luhmann, Niklas (1978) Legitimation durch Verfahren. 3. Aufl. Darmstadt, Neuwied: Luchterhand (Soziologische Texte, Bd. 66).Search in Google Scholar

Luhmann, Niklas (2000) Die Rückgabe des zwölften Kamels: Zum Sinn einer soziologischen Analyse des Rechts. In: Zeitschrift für Rechtssoziologie 21 (1), S. 3–60.10.1515/zfrs-2000-0103Search in Google Scholar

Nelles, Ronald; Popp, Maximilian (2020) Die letzten Minuten des Schattenkriegers. Rekonstruktion der Tötung Soleimanis. Spiegel Online. Online verfügbar unter https://www.spiegel.de/politik/iran-rekonstruktion-der-toetung-von-qasem-soleimani-a-393afdbc-f714-4ae6-bb45-61bb855f76d4.Search in Google Scholar

Nickel, Wolf-Rüdiger; Schubert, Wolfgang (Hg.) (2012) Best Practice Alkohol-Interlock. Erforschung alkoholsensitiver Wegfahrsperren für alkoholauffällige Kraftfahrer; Literaturstudie, Bewertung und Designperspektiven. Bonn: Kirschbaum.Search in Google Scholar

Omlor, Sebastian (2022) Demokratische Blockchain-Algorithmen: von „Code is Law“ zu „Law in Code“? In: JZ 77 (13), S. 649. DOI: 10.1628/jz-2022-0205.10.1628/jz-2022-0205Search in Google Scholar

Oppermann, Bernd H.; Stender-Vorwachs, Jutta (Hg.) (2020) Autonomes Fahren. Rechtsprobleme, Rechtsfolgen, technische Grundlagen. 2. Auflage. München: C. H. Beck.10.17104/9783406760402Search in Google Scholar

Oster, Jan (2021) Code is code and law is law—the law of digitalization and the digitalization of law. In: International Journal of Law and Information Technology 29 (2), S. 101–117. DOI: 10.1093/ijlit/eaab004.10.1093/ijlit/eaab004Search in Google Scholar

Pasquale, Frank (2015) The Black Box Society. The Secret Algorithms That Control Money and Information. Cambridge, MA: Harvard University Press.10.4159/harvard.9780674736061Search in Google Scholar

Popitz, Heinrich (1980) Die normative Konstruktion von Gesellschaft. Tübingen: Mohr.Search in Google Scholar

Popitz, Heinrich (1986) Phänomene der Macht. Tübingen: Mohr.Search in Google Scholar

Rademacher, Timo (2019) Wenn neue Technologien altes Recht durchsetzen: Dürfen wir es unmöglich machen, rechtswidrig zu handeln? In: JZ 74 (14), S. 702. DOI: 10.1628/jz-2019-0251.10.1628/jz-2019-0251Search in Google Scholar

Rammert, Werner; Schulz-Schaeffer, Ingo (2016) Technik und Handeln. Wenn soziales Handeln sich auf menschliches Verhalten und technische Abläufe verteilt. In: Werner Rammert: Technik – Handeln – Wissen. Zu einer pragmatistischen Technik- und Sozialtheorie. 2. Aufl. 2016. Wiesbaden: Springer VS, S. 121–167.10.1007/978-3-658-11773-3_6Search in Google Scholar

Rauch, Annika (2020) Autonome Waffensysteme und Völkerrecht: Stand der wissenschaftlichen Diskussion, offene Forschungsfragen und aktuelle Regelungsanstrengungen im internationalen System. Hg. v. Institut für Wirtschaftsrecht. Halle (Saale) (Beiträge zum Europa- und Völkerrecht). DOI: 10.25673/69009.Search in Google Scholar

Reemtsma, Jan-Philipp (2008/2013) Vertrauen und Gewalt. Versuch über eine besondere Konstellation der Moderne. Hamburg: Hamburger Edition.Search in Google Scholar

Rich, Michael L. (2012) Should We Make Crime Impossible? In: Harvard Journal of Law and Public Policy 36 (2), S. 795–848.10.2139/ssrn.2029201Search in Google Scholar

Schmitz, Hermann (1964) Die Gegenwart. Bonn: Bouvier (System der Philosophie, Bd. 1).Search in Google Scholar

Schulz-Schaeffer, Ingo (2007) Technik als sozialer Akteur und als soziale Institution: Sozialität von Technik statt Postsozialität. TUTS – Working Papers, 3-2007. Hg. v. Technical University Technology Studies (Technical University Technology Studies Working Paper Series). Online verfügbar unter https://www.ssoar.info/ssoar/bitstream/handle/document/1213/ssoar-2007-schulz-schaeffer-technik_als_sozialer_akteur_und.pdf?sequence=1&isAllowed=y&lnkname=ssoar-2007-schulz-schaeffer-technik_als_sozialer_akteur_und.pdf, zuletzt geprüft am 07.07.2023.Search in Google Scholar

Spindler, Gerald (2017) Regulierung durch Technik. In: Hans-Wolfgang Micklitz, Gesche Joost, Lucia A. Reisch und Helga Zander-Hayat (Hg.): Verbraucherrecht 2.0 – Verbraucher in der digitalen Welt. 1. Auflage. Baden-Baden: Nomos (Schriftenreihe des Instituts für Europäisches Wirtschafts- und Verbraucherrecht e.V, Band 38), S. 333–366.10.5771/9783845284569-333Search in Google Scholar

Trotha, Trutz von (2000) Was ist Recht? Von der gewalttätigen Selbsthilfe zur staatlichen Rechtsordnung. In: Zeitschrift für Rechtssoziologie 21 (2), S. 327–354.10.1515/zfrs-2000-0203Search in Google Scholar

U. S. Department of Defense (02.01.2020) Statement by the Department of Defense. Washington. Online verfügbar unter https://www.defense.gov/News/Releases/Release/Article/2049534/statement-by-the-department-of-defense/.Search in Google Scholar

United Nations; Office for Disarmament Affairs (2022) Convention on Certain Conventional Weapons – Group of Governmental Experts on Lethal Autonomous Weapon Systems. Online verfügbar unter https://meetings.unoda.org/ccw/convention-certain-conventional-weapons-group-governmental-experts-2022.Search in Google Scholar

Volkmann, Caroline (2019) Art. 17 Urh-RL und die Upload-Filter: verschärfte Störerhaftung oder das Ende der Freiheit im Internet? In: Computer und Recht 35 (6), S. 376–384. DOI: 10.9785/cr-2019-350612.10.9785/cr-2019-350612Search in Google Scholar

Weber, Max (2006) Wirtschaft und Gesellschaft. Paderborn: Voltmedia.Search in Google Scholar

Wölke, Björn (2011) Mit Null Promille durch Europa 388, S. 20–23. Online verfügbar unter https://www.draeger.com/Library/Content/draegerheft_388_21-23.pdf.Search in Google Scholar

Yeung, Karen (2019) Regulation by Blockchain: the Emerging Battle for Supremacy between the Code of Law and Code as Law. In: The Modern Law Review 82 (2), S. 207–239. DOI: 10.1111/1468-2230.12399.10.1111/1468-2230.12399Search in Google Scholar

Zuboff, Shoshana (2018) Das Zeitalter des Überwachungskapitalismus. Frankfurt, New York: Campus Verlag.Search in Google Scholar

Online erschienen: 2024-10-24
Erschienen im Druck: 2024-11-26

© 2024 bei den Autorinnen und Autoren, publiziert von Walter de Gruyter GmbH, Berlin/Boston

Dieses Werk ist lizensiert unter einer Creative Commons Namensnennung 4.0 International Lizenz.

Downloaded on 14.10.2025 from https://www.degruyterbrill.com/document/doi/10.1515/zfrs-2024-2004/html?srsltid=AfmBOordxKP0Dpe45NaVD63_RlVPCNknVrjmfHiKsnRUhGrW8G628Vt2
Scroll to top button