Startseite „Computer says no“? Konsequenzen der Algorithmisierung von Entscheidungsprozessen
Artikel Öffentlich zugänglich

„Computer says no“? Konsequenzen der Algorithmisierung von Entscheidungsprozessen

  • Sven Kette

    Sven Kette (Dr. phil.) ist Privatdozent am Soziologischen Seminar der Universität Luzern. Aktuell vertritt er die Professur ‚Soziologie mit Schwerpunkt Arbeit, Wirtschaft und Organisation‘ an der TU Chemnitz. Schwerpunktmäßig forscht er zu Fragen der Organisationssoziologie, der Soziologie der Bewertung und des Vergleichs, der Wirtschafts- und Finanzsoziologie sowie der Soziologie der Digitalisierung. Wichtige Publikationen: Dynamiken der Meta-Formalisierung von Moral: Entdifferenzierung und Personalisierung im Kontext organisationalen Compliance Managements, in: André Armbruster/Cristina Besio (Hrsg.), Organisierte Moral: Zur Ambivalenz von Gut und Böse in Organisationen. Wiesbaden, 2021; Unternehmen. Eine sehr kurze Einführung. Wiesbaden, 2018; Refinanzierung als Organisationsproblem: Vorarbeiten zu einer geldsensitiven Organisationssoziologie. Zeitschrift für Soziologie 46 (2017) (5).

    ORCID logo EMAIL logo
Veröffentlicht/Copyright: 9. Dezember 2022
Veröffentlichen auch Sie bei De Gruyter Brill

Zusammenfassung

Der Beitrag fragt nach den Konsequenzen der Algorithmisierung von Entscheidungsprozessen. Er geht dabei von der Beobachtung aus, dass in der sozialwissenschaftlichen Debatte um algorithmic decision making die technischen Implikationen von Algorithmen eher überbetont werden, wohingegen die sozialen Verwendungskontexte eher unterbelichtet bleiben. Insofern es sich bei diesen Verwendungskontexten zumeist um Organisationen handelt, plädiert der Beitrag dafür, die Effekte der Algorithmisierung als Effekte des organisationalen Umgangs mit Algorithmen zu begreifen. Gefragt wird daher in beide in Richtungen: Welche Effekte hat die organisationale Situiertheit auf die Algorithmisierung und – umgekehrt – welche Effekte hat die Algorithmisierung auf die organisationale Entscheidungsproduktion? Im Ergebnis zeigt sich, dass und wie Algorithmen zugeschriebene Probleme durch die organisationale Eigenlogik gebrochen werden und sie damit in Teilen entproblematisiert werden und in Teilen eine andere Zuspitzung erfahren.

Abstract

The article asks for the consequences of the algorithmisation of decision-making processes. It starts from the observation that in the social science debate on algorithmic decision making, the technical implications of algorithms tend to be overemphasised, whereas the social contexts of use tend to remain unexposed. Insofar as these contexts of use are mostly organisational, the article suggests to understanding the effects of algorithmisation as effects of the organisational handling of algorithms. The question is therefore posed in both directions: What effects does organisational situatedness have on algorithmisation and – vice versa – what effects does algorithmisation have on organisational decision making? The result shows that and how problems attributed to algorithms are refracted by organisational logic and are thus partly deproblematised and partly intensified.

1 Einleitung: Die halbierte Debatte um algorithmisierte Entscheidungsprozesse

Die Einbindung von Algorithmen in Entscheidungsprozesse hat in den letzten Jahren einen deutlichen Aufschwung erfahren. Im Kontext von Versicherungen, Jugendschutzbehörden, der Polizeiarbeit aber auch vieler Unternehmen werden Algorithmen in Anspruch genommen, um Entscheidungen zu treffen oder Entscheidungen mit algorithmisch erzeugten Informationen vorzubereiten. Der vorliegende Beitrag interessiert sich für die Effekte dieser Algorithmisierung von Entscheidungsprozessen. Den Ausgangspunkt der Analysen bildet dabei die Beobachtung, dass die Debatte um algorithmic decision making bislang als ‚halbierte‘ Debatte geführt wird. Zwar werden die Funktionslogik von Algorithmen und deren Implikationen reflektiert. Nicht konsequent berücksichtigt wird jedoch, dass die von der Algorithmisierung erfassten Entscheidungsprozesse regelmäßig einen Organisationsbezug aufweisen und es sich bei den entsprechenden Phänomenen mithin um die Algorithmisierung organisationaler Entscheidungsprozesse handelt. Das Ziel des Beitrags ist es dementsprechend, die organisationale Situiertheit der Algorithmisierung sichtbar zu machen und auf ihre Konsequenzen hin zu befragen. Eine in diesem Sinne organisationssoziologisch erweiterte Perspektive, verspricht Impulse sowohl für die soziologische Digitalisierungsforschung wie auch für die empirische Organisationsforschung zu geben.

Erst allmählich beginnt sich die Einsicht durchzusetzen, dass Digitalisierung und Organisation in vielerlei Hinsicht zusammenhängen (Büchner 2018; Kirchner 2019). Mehr noch als die Organisationen selbst, stand bislang jedoch vor allem das Verhältnis von organisierter Arbeit und Digitalisierung im Fokus (siehe aktuell hierzu den Band von Schnell/Pfeiffer/Hardenberg 2021). In diesem Zusammenhang galt das Interesse etwa den mit der Digitalisierung einhergehenden Rationalisierungsprozessen und deren Folgen auf die Arbeit (Hirsch-Kreinsen 2015), der mit Crowdworking und Crowdsourcing verbundenen Umverteilung von Arbeit (Kleemann/Voß/Rieder 2008; Leimeister/Shkodran 2013; Menz/Tomazic 2017) oder den Grenzverschiebungen im Zuge einer aufkommenden Plattformökonomie (Dolata 2019; Kirchner/Beyer 2016; Srnicek 2017; Langley/Leyshon 2017; Kenney/Zysman 2016). Hinzu kommt eine Reihe wirtschaftssoziologisch orientierter Studien, in denen Unternehmen (also Organisationen) zwar einen wichtigen Bezugspunkt darstellen, ohne allerdings selbst zum Gegenstand der Analyse zu werden (siehe etwa Dolata 2015; Srnicek 2017; Sundararajan 2016).

Für Arbeiten, die sich explizit mit dem Thema algorithmic decision making beschäftigen, ergibt sich ein ähnliches Bild. Dabei strukturiert sich die Debatte um algorithmic decision making im Wesentlichen in drei Hauptcluster. Auf der einen Seite finden sich eine Reihe von Beiträgen, die aus einer datenwissenschaftlichen Perspektive die Funktionslogik von Algorithmen dekonstruieren (siehe nur Burrell 2016) und sich um eine mehr oder weniger soziologisch orientierte Theoretisierung von Algorithmen bemühen (so etwa Esposito 2017; Lee/Björklund Larsen 2019). Auch wo sie selbst keine soziologischen Interessen verfolgen, sind diese Beiträge instruktiv, weil sie soziologische Analysen insofern vorbereiten, als diese ohne ein Verständnis der technischen Grundlagen von Algorithmen gar nicht möglich wären.

Deutlich dominiert wird die sozialwissenschaftliche Forschung zu Algorithmen aber von Beiträgen eines zweiten Clusters, welche sich aus einer stärker normativen Perspektive heraus für die moralischen und ethischen Implikationen der Algorithmisierung von Entscheidungsprozessen interessieren (siehe stellvertretend für viele: Kiviat 2019; Mittelstadt/Allo et al. 2016; Purves/Jenkins/Strawser 2015; Boyd/Crawford 2012). Prominente Themen in diesem Zusammenhang sind Fragen der Fairness, des Entscheidungsbias und daran anschließender Diskriminierungstendenzen durch Algorithmen (Hoffmann 2019; Bozdag 2013; Vanian 2018), Fragen der Transparenz (Kemper/Kolkman 2019; Kitchin 2017) sowie die Frage, inwieweit Algorithmen Verantwortlichkeitsprobleme erzeugen (Matthias 2004; Zarsky 2015). Die Grenzen zwischen diesen ersten beiden Perspektivclustern verlaufen etwas unscharf. Zum einen weisen auch die konzeptionell orientierten Beiträge häufig eine normative (Sub-)Fragestellung auf, zum anderen erfolgt die Diskussion moralisch-ethischer Implikationen zumeist auf der Grundlage einer ausführlichen Reflexion der technischen Grundlagen und Implikationen von Algorithmen. Gemeinsam ist beiden Perspektiven aber, dass sie sich praktisch ausschließlich auf die technischen Aspekte der Algorithmisierung und deren Folgen konzentrieren, ohne jedoch den sozialen Kontext – und das heißt häufig eben: die organisationale Situiertheit – der Algorithmisierung in die Analysen miteinzubeziehen.

Diese Organisationsvergessenheit zeigt sich – von wenigen Ausnahmen abgesehen[1] – selbst in solchen Studien, die sich explizit mit Algorithmisierungsprozessen in Organisationen beschäftigen. Zu diesem dritten Cluster von Beiträgen zählen Studien, die anhand empirischer Fälle die Konsequenzen der Algorithmisierung analysieren. Untersucht werden etwa Kreditvergabeentscheidungen, welche auf der Grundlage von algorithmisch generierten Score-Werten getroffen werden (Citron/Pasquale 2014); die polizeiliche Einsatzplanung auf der Grundlage algorithmisch berechneter Kriminalitätsschwerpunkte (siehe insbesondere die ethnographische Studie von Brayne 2017, aber auch Bennett Moses/Chan 2016) oder die Nutzung algorithmischer Datenauswertungen in Kinder- und Jugendschutzbehörden, um Gefährdungslagen zu beurteilen und darauf aufbauend über Interventionsmaßnahmen zu entscheiden (Eubanks 2018, 127–173). In all diesen Studien wird die Tatsache, dass es sich bei Banken, Polizeien und Verwaltungsbehörden um Organisationen handelt, allenfalls erwähnt. In ihren Analysen konzentrieren sich jedoch auch diese Autoren zumeist allein auf den technischen Aspekt der Algorithmisierung; der organisationale Kontext dieser Technisierung hingegen wird ausgeblendet.

Für die Analyse des algorithmic decision making scheint es jedoch aus zweierlei Gründen besonders ertragreich, Organisationen in ihrer Eigenkomplexität ernst zu nehmen und sie damit in das Zentrum der Analyse zu rücken. Zum einen stellen Organisationen – wie oben gesehen – regelmäßig den sozialen Kontext algorithmisierter Entscheidungsprozesse dar. Jenseits von Organisationen dürften algorithmisierte Entscheidungsprozesse derzeit jedenfalls kaum zu finden sein.[2] Zum anderen handelt es sich bei Entscheidungen um den basalen Modus der organisationalen Koordination und Reproduktion (March/Simon 1993; March 1988; Luhmann 2000; Groddeck/Siri/Mayr 2016). Schon dies legt es nahe, sich das Verhältnis von Organisation und Algorithmisierung als eines der wechselseitigen Ermöglichung und Einschränkung vorzustellen. Zu fragen ist dann in beide Richtungen: Welche Effekte hat die organisationale Situiertheit auf die Algorithmisierung und – umgekehrt – welche Effekte hat die Algorithmisierung auf die organisationale Entscheidungsproduktion?

Ausgehend von einem Organisationsverständnis, das Organisationen als eigenlogische Systeme begreift, die über ihre Entscheidungs- und Relevanzstrukturen selbst disponieren (Weick 1985; Luhmann 2000), lautet die hier im Weiteren zu entfaltende These, dass die Algorithmisierung von Entscheidungsprozessen durch die organisationale Eigenlogik gebrochen wird. Unmittelbar wirkt sich die Algorithmisierung von Entscheidungsprozessen auf die Organisation selbst aus. Die Effekte der Algorithmisierung auf die gesellschaftliche Organisationsumwelt hingegen zeigen sich indirekt – als Effekte des organisationalen Umgangs mit den Effekten der Algorithmisierung. Um die Dynamiken und Effekte eines aufkommenden alogrithmic decision making verstehen zu können, ist es daher erforderlich, diese beiden Aspekte auch konzeptionell auseinanderhalten zu können und eine darauf eingestellte zweistufige Analysestrategie zu verfolgen.

Die weiteren Analysen vorbereitend rekonstruiert der folgende Abschnitt 2 zunächst die Informationserzeugung und das Entscheiden als basale Operationsmodi von Algorithmen bzw. Organisationen. In diesem Zusammenhang zeigt sich einerseits eine Strukturähnlichkeit zwischen Algorithmen und Organisationen. Andererseits wird auch deutlich, dass Organisationen eine gewisse strukturelle Affinität zur Inkorporierung von Algorithmen aufweisen. Dass diese strukturelle Affinität nicht gleichbedeutend mit einer unproblematischen Inkorporierung ist, wird in Abschnitt 3 deutlich. Dieser fragt, welche Umstellungen mit einer Algorithmisierung organisationaler Entscheidungsprozesse verbunden sind und welche Folgeprobleme sich daraus für Organisationen ergeben. Der vierte Abschnitt kippt schließlich die Perspektive und arbeitet heraus, wie Organisationen sich eine Algorithmisierung ihrer Entscheidungsprozesse dennoch ermöglichen. Auf dieser Grundlage eines Verständnisses von algorithmisierten Entscheidungsprozessen als organisational situiertes Geschehen, wird es im abschließenden Fazit möglich, überorganisationale Effekte zu skizzieren und daraus resultierende Forschungsperspektiven zu benennen.

2 Algorithmische Informationserzeugung und organisationales Entscheiden

Wenngleich die Debatte um ein vermehrt zu beobachtendes algorithmic decision making den Ausgangspunkt dieser Analysen darstellt, soll – zumindest mit Blick auf Algorithmen – der Aspekt der Entscheidung zunächst noch zurückgestellt werden. Zwar werden Entscheidungen auf der Grundlage von (behaupteten oder tatsächlichen) Informationen getroffen und auch haben Entscheidungen selbst einen Informationswert (Luhmann 2000; March/Simon 1993). Umgekehrt handelt es sich aber nicht bei jeder Informationsverarbeitung oder -produktion um eine Entscheidung. Die Verarbeitung von Informationen ist daher der grundlegendere Prozess. Er ist für die Anfertigung von Entscheidungen konstitutiv, ohne dass letztere sich darin erschöpfen würden. An dieser Stelle kommt es daher vorerst darauf an, Algorithmen als Mechanismen der Informationserzeugung zu rekonstruieren. Dass und wie genau diese Informationsleistungen auch im Kontext von Entscheidungsprozessen Relevanz gewinnen können, wird das Thema des Abschnitts 3 sein.

Geht man vom Aspekt der Informationsverarbeitung aus, so fallen einige Strukturähnlichkeiten zwischen Algorithmen und Organisationen auf. Diese zu explizieren ist hilfreich, um zu verstehen, warum Organisationen überhaupt für eine Algorithmisierung ihrer Entscheidungsprozesse empfänglich sind. Zugleich bereitet dieser Vergleich die weiteren Analysen aber auch dahingehend vor, dass er ein grundlegendes Verständnis der basalen Funktionslogik von Algorithmen und Organisationen vermittelt. Die zentralen Aspekte in diesem Zusammenhang sind zum einen die Bedeutung von Regeln für Algorithmen und Organisationen (2.1) sowie zum anderen die Intransparenz der Operationsweise (2.2).

2.1 Regelgeleitete Informationserzeugung durch Algorithmen und Organisationen

Folgt man dem Technikverständnis von Werner Rammert, so sind „Handlungen, natürliche Prozessabläufe oder Zeichenprozesse […] dann technisiert, wenn sie einem festen Schema folgen, das wiederholbar und zuverlässig erwartete Wirkungen erzeugt“ (Rammert 2016, 10 f.; Hervorh. weggelassen). Diesen Prozess der wiederholbar und zuverlässig erwartbaren Erzeugung von Wirkungen nennt Rammert Algorithmisierung, wenn er sich im Medium symbolischer Zeichen vollzieht, „das bedeutet die Zerlegung von Anweisungen in einfachste und eindeutige Befehle, die zu Programmen für eine sequentielle Problemabarbeitung zusammengefasst werden. Dies gilt für die einfachste schriftliche Rechentechnik (Addieren im Zehnersystem durch Untereinanderschreiben in Spalten) wie für komplizierte Computerprogramme der Künstliche Intelligenz-Technologie“ (2016, 11).

In einer ersten Annäherung lassen sich damit auch die hier interessierenden computerbasierten Algorithmen als eine Technik verstehen, welche Daten nach Maßgabe von Regeln verarbeitet und dadurch neue Informationen erzeugt. Die Verarbeitungsregeln basieren dabei auf einem ‚wenn-dann‘-Schema (Neyland/Möllers 2016; Büchner 2018, 338; Nassehi 2019, 196 ff.): In Abhängigkeit davon, ob die fraglichen Daten ein bestimmtes Merkmal (oder eine Merkmalskombination) aufweisen (‚wenn‘-Komponente), werden sie in je spezifischer Weise weiterbehandelt (‚dann‘-Komponente). Insofern sich also jeder Algorithmus – im Prinzip – in ‚wenn-dann‘-Sequenzen zerlegen lässt, sind Algorithmen regeldeterminiert. Zwar können die ‚wenn-dann‘-Regeln (auch wiederholt) geändert werden; für jeweilige Verarbeitungssequenzen sind sie aber fixiert. Für die Diskussion um die Funktionsweise von Algorithmen verschiebt sich damit der Fokus von der Algorithmus-Anwendung hin zur Entwicklung und Programmierung der für die Informationsverarbeitung maßgeblichen ‚wenn-dann‘-Regeln.

In diesem Zusammenhang wird in der Debatte um Algorithmisierung vor allem auf ein ‚Bias-Problem‘ hingewiesen. Angesprochen ist damit der Umstand, dass Algorithmen niemals wertneutral seien, sondern sie immer die (impliziten oder expliziten) Werte der Programmierer und/oder der Auftraggeber reflektierten: „Algorithms inevitably make biased decisions. An algorithm’s design and functionality reflects the values of its designer and intended uses, if only to the extent that a particular design is preferred as the best or most efficient option“ (Mittelstadt/Allo et al. 2016, 7). Seine Brisanz bezieht das ‚Bias-Problem‘ aus dem Umstand, dass die im Algorithmus angelegten Bias diskriminierende Effekte zeitigten, welche sich etwa daran zeigten, dass – vermittelt über die algorithmischen Verarbeitungsregeln – einkommensschwache Eltern ein größeres Risiko aufweisen, Gegenstand von Untersuchungen der Kinder- und Jungendschutzbehörden zu werden (Eubanks 2018) oder dass Personen, die in Polizeikontrollen geraten, aufgrund selbstverstärkender Effekte der polizeilichen Überwachungssoftware eine höhere Wahrscheinlichkeit aufwiesen, in weitere Polizeikontrollen zu geraten (Brayne 2017, 998).

Was in der kritischen Debatte um die Wirkung von Algorithmen als ‚Bias-Problem‘ erscheint, erklärt zugleich, warum der Einsatz von Algorithmen in organisationalen Kontexten attraktiv erscheint. Schon früh war es Max Weber (1980 [1921/22]), der darauf hingewiesen hat, dass eine rein sachliche Entscheidungsorientierung unter Neutralisierung aller sonstigen Wertbezüge und Partikularismen eines der zentralen Merkmale der Bürokratie sei.[3] Wenngleich vielfach kritisiert wurde, dass Webers idealtypische Beschreibung der Bürokratie nicht den empirischen Verhältnissen entspricht oder gar als pathologische Struktur zu verstehen sei (Merton 1940; Gouldner 1954; Luhmann 1971b),[4] gilt doch auch für Organisationen, dass sie Informationen in Bezugnahme auf Regeln verarbeiten und ihre Entscheidungen an Regeln orientieren. Die Einrichtung von Entscheidungsprämissen, wie etwa formalen Kommunikationswegregelungen oder Entscheidungsprogrammen, zielt im Kern darauf ab, ex ante die Kriterien für eine Vielzahl zukünftig zu verarbeitender Informationen und zu treffender Entscheidungen vorzuzeichnen (Kette 2018b, 54 ff.). Die Ähnlichkeit zu Algorithmen ist augenfällig und zeigt sich am deutlichsten mit Blick auf Konditionalprogramme – jenen Entscheidungsprogrammen also, welche die gleiche ‚wenn-dann‘-Struktur aufweisen, wie dies auch für Algorithmen gilt.[5]

Einerseits erscheint das mit Blick auf Algorithmen diagnostizierte ‚Bias-Problem‘ damit in Teilen auch für Organisationen zu gelten. Schließlich gilt auch für organisationale Planungsentscheidungen, dass diese ex ante – und durch entsprechende Werte der Formalisierungsinstanzen gefärbte – Kriterien für die zukünftige Verarbeitung von Informationen und das Anfertigen von Entscheidungen festlegen. Andererseits – und dies unterscheidet dann Organisationen von Algorithmen – determinieren die organisationalen Regeln nicht den tatsächlichen Vollzug der Informationsverarbeitung und Entscheidung. Vielmehr geben zahlreiche Studien zu informalen Praktiken in Organisationen darüber Auskunft, dass organisationale Regeln und faktische Arbeitsabläufe nur lose gekoppelt sind (siehe nur klassisch: Bensman/Gerver 1963; Blau 1982).[6] Formale Regeln sind lediglich abstrakte „blueprints“ (Stinchcombe 2001), die stets einer situativen Aktualisierung bedürfen – bisweilen aber auch ignoriert werden.

Wenngleich für Organisationen in der situativen Suspendierung von Regeln vor allem auch adaptive Potentiale liegen (Luhmann 1964, 304–314), finden sich in Organisationen doch regelmäßig Tendenzen, die faktischen Arbeitsabläufe möglichst eng an die formalen Regeln zu koppeln. So liegt es insbesondere aus Perspektive jener Stellen, die Strukturentscheidungen treffen können (insbesondere also der Organisationsleitung), nahe, auf eine Einhaltung der Formalstrukturen zu drängen, da diese den einzigen Ansatzpunkt für die Gestaltung der Organisation und mithin für die Umsetzung der eigenen Steuerungs- und Strategieambitionen darstellen (Kühl 2019). Vor diesem Hintergrund erscheint es dann auch aus strategischen Erwägungen hoch plausibel, dass sich das Management von Organisationen um eine Algorithmisierung organisationaler Entscheidungsprozesse und die dadurch in Aussicht gestellte feste Kopplung von Regel und operativen Vollzug bemüht.

2.2 Algorithmen und Organisationen als informationale Black-Boxes

Eine zweite Strukturähnlichkeit zwischen Algorithmen und Organisationen zeigt sich hinsichtlich der Beobachtbarkeit jeweiliger Operationen. So ist etwa mit Blick auf Algorithmen leicht ersichtlich, dass diese auf dem Vollzug von ‚wenn-dann‘-Regeln basieren. Welche Daten jedoch die Grundlage für entsprechende Operationen bilden und anhand welcher ‚wenn-dann‘-Kriterien konkret diese Daten verarbeitet werden, bleibt zumeist weitgehend unklar. In der Debatte um algorithmic decision making wird dieser Aspekt unter dem Stichwort der Opazität bzw. als ‚Black-Box-Problem‘ thematisiert.

Wie schon für die Regelbasiertheit von Algorithmen, so gilt auch für den Black-Box-Charakter algorithmischer Informationsverarbeitung, dass dieser vor allem kritisch diskutiert wird. Im Zentrum stehen dabei insbesondere solche Algorithmen, welche auf die Kategorisierung von Personen abzielen – sei es, um auf der Grundlage dieser Kategorisierungen Kreditvergabeentscheidungen zu treffen, Jugendschutzmaßnahmen zu ergreifen oder polizeiliche Ermittlungen zu fokussieren. In diesem Zusammenhang wird der behauptete Black-Box-Charakter von Algorithmen im Wesentlichen mit Blick auf zwei Aspekte plausibilisiert. Zum einen wird darauf hingewiesen, dass den „Datensubjekten“ ein Einblick in die entsprechenden algorithmischen Verarbeitungsregeln oftmals schlicht nicht gewährt werde (Burrell 2016). Dieser Punkt verweist nochmals deutlich auf die organisationale Situiertheit algorithmisierten Entscheidens. Schließlich sind es nicht die algorithmischen Eigenqualitäten, die einer solchen Einsichtnahme im Wege stehen, sondern organisationale Politiken der Geheimhaltung.

Demgegenüber bezieht sich der zweite regelmäßig genannte Aspekt explizit auf die Eigenschaften von Algorithmen selbst. In diesem Zusammenhang wird darauf hingewiesen, dass selbst dann, wenn ein Zugang zu den algorithmischen Datenverarbeitungsregeln gewährt wird, dies die Opazitätsphänomene keineswegs beseitige. Vielmehr seien die Programmstrukturen des Algorithmus so komplex (Kitchin 2016), dass sie in der Folge einer „technical illiteracy“ (Burrell 2016) entweder – im Fall selbstlernender Algorithmen – prinzipiell unverstanden bleiben müssten (Mittelstadt/Allo et al. 2016, 6), oder aber – im Fall klassischer Algorithmen – nur von sehr wenigen Experten, nicht aber von Laien verstanden werden könnten. Im ersten Fall beruht die Opazität damit auf normativen Blockaden, im zweiten Fall auf kognitiven Limitationen (siehe auch Danaher 2016, 248 ff.).

Im Vergleich fällt auf, dass sich die für Algorithmen diagnostizierte Intransparenz ebenso mit Blick auf Organisationen und deren Prozesse der Informationsverarbeitung findet. Für Organisationen ist Intransparenz geradezu konstitutiv und eine allzu große Transparenz sogar problematisch (Ringel 2018). Mit Blick auf das Verhältnis zur organisationalen Umwelt ist dies evident. So erlauben Organisationen nur selten und allenfalls höchst selektiv Einblicke in ihre internen Entscheidungsprozesse. Vielmehr bemühen sie sich um eine Kontrolle ihrer Außendarstellung, indem sie Fassaden errichten und ein window dressing betreiben, welches den Umstand verdeckt, dass die internen Arbeitsaktivitäten nicht mit den offiziellen Verlautbarungen übereinstimmen (Luhmann 1964, 108–122; Brunsson 1989; Bromley/Powell 2012; Kette 2018b, 93–111).

Aber auch jenseits strategischer Außendarstellungen und mit Blick auf die organisationale Innenseite lassen sich Organisationen als informationale Black-Boxes verstehen. Der Grund hierfür liegt in der internen Differenzierung von Organisationen. So mögen die formalen Strukturen und die darin angelegten Entscheidungsregeln in Form von Prozesshandbüchern und Standard Operating Procedures (SOP) zwar organisationsöffentlich sein. Faktisch entstehen in Organisationen aber entlang von Abteilungsgrenzen (horizontale Differenzierung) und hierarchischen Ebenen (vertikale Differenzierung) Sichtbarkeitsschwellen. Diese sind schon mit Blick auf die formalen Strukturen jeweiliger Abteilungen wirksam, erst recht aber hinsichtlich der informalen Strukturen und bezüglich des faktischen Zustandekommens einzelner Entscheidungen.

Am deutlichsten zeigt sich die Binnenintransparenz von Organisationen im Kontext solcher Entscheidungen, an denen unterschiedliche Abteilungen durch die Bereitstellung von Informationen oder vorgelagerter Teil-Entscheidungen beteiligt sind. In diesen Fällen werden typischerweise lediglich die Resultate der Informationsverarbeitung, nicht aber die Datengrundlage selbst abteilungsübergreifend kommuniziert. Dieser Prozess der Unsicherheitsabsorption[7] ist damit eine wesentliche Ursache für die Binnenintransparenz von Organisationen. So gibt es in Organisationen keinen herausgehobenen Standpunkt, von dem aus sich das gesamte organisationale Entscheidungs- und Informationsgeschehen überblicken ließe – auch nicht an der Spitze der Hierarchie.[8] Zugleich liegt in diesem Verzicht auf eine panoptische Position aber auch eine der zentralen Möglichkeitsbedingungen für die von Organisationen erreichbare Leistungsfähigkeit im Umgang mit einer differenzierten Umwelt und deren Komplexität (Stinchcombe 1990). Schließlich gründen die in der arbeitsteiligen Koordinationsform angelegten Effizienzpotentiale ganz wesentlich auf Spezialisierungseffekten – und das bedeutet: auf dem Absehen von allem, was nicht unmittelbar die eigene Aufgabenerfüllung betrifft.

Im Vergleich von Algorithmen und Organisationen zeigt sich nun, dass sich in beiden Fällen die Informationsverarbeitung weitgehend intransparent vollzieht. Darüber hinaus ist in der Opazität von Algorithmen ein weiterer Grund zu sehen, warum für Organisationen eine gewisse Affinität zur Nutzung von Algorithmen angenommen werden darf. Im Kern leisten Algorithmen, was die arbeitsteilige Informationsverarbeitung ebenfalls leistet: die Erzeugung von Informationen durch die Reduktion der Komplexität von Rohdaten. Gerade weil Algorithmen als Black-Boxes operieren, deren Datenverarbeitungsprozesse sich nicht ohne Weiteres erschließen, vermögen es die von ihnen generierten Outputs tatsächlich zu überraschen – und genau darin liegt ihr Informationswert.

In der Zusammenschau zeigt sich damit bis hierher, dass Algorithmen und Organisationen einige zentrale Merkmale teilen: beide weisen mit Blick auf die Regelorientierung und die diesen Regeln zu Grunde liegende ‚wenn-dann‘-Form eine „Strukturhomologie“ auf (Büchner 2018; siehe auch Luhmann 1966). Und beide zeichnen sich durch eine Intransparenz ihrer Informationsverarbeitung aus. Vor diesem Hintergrund erscheinen Algorithmen schon strukturell gut mit organisationalen Entscheidungsstrukturen kompatibel zu sein. Hinzu kommt, dass gerade die an Algorithmen vielfach kritisierten Aspekte der Bias- und Black-Box-Problematik zugleich organisational prämierte Tendenzen der Abweichungsvermeidung und der Generierung von (überraschenden) Informationen befördern. All dies plausibilisiert zunächst die Beobachtung, dass Organisationen in ganz unterschiedlichen gesellschaftlichen Bereichen scheinbar bereitwillig Algorithmen in ihre Entscheidungsprozesse einbeziehen. Damit ist jedoch umgekehrt nicht zugleich gesagt, dass sich Algorithmen umstandslos und ohne weitere Folgeprobleme in Organisationen inkorporieren ließen. Diese organisationalen Effekte der Algorithmisierung von Entscheidungsprozessen sind das Thema des folgenden Abschnitts 3.

3 Folgen der Algorithmisierung organisationaler Entscheidungsprozesse

Bislang wurde zweierlei deutlich. Zum einen, dass die Debatte um algorithmisierte Entscheidungsprozesse an einer Organisationsvergessenheit leidet, die insofern problematisch ist, als sie zu einer Dekontextualisierung des Phänomens führt. In der Folge ist das Differenzierungspotential einer solchen Perspektive beschränkt, so dass daran anschließende Problemdiagnosen verkürzt erscheinen. Zum anderen zeigte sich, dass Algorithmen und Organisationen einige Strukturähnlichkeiten aufweisen, die es gleichermaßen plausibel wie aussichtsreich erscheinen lassen, dass Organisationen im Rahmen ihrer Entscheidungsprozesse auch Algorithmen in Anspruch nehmen.

Im Folgenden geht es nun darum, die organisationale Situiertheit algorithmisierter Entscheidungsprozesse schärfer zu konturieren und herauszuarbeiten, was sich für Organisationen ändert, wenn diese ihre Entscheidungsprozesse (teilweise) algorithmisieren. In diesem Zusammenhang sind zwei Tendenzen bedeutsam: Ein Varianzverlust als Folge der Technisierung von Entscheidungen einerseits (3.1), sowie ein Adressausfall als Folge der De-Personalisierung andererseits (3.2).

3.1 Entscheidungstechnisierung und Varianzverlust

Die Einsicht, dass Entscheidungen im Kontext formaler Organisationen von zentraler Bedeutung sind, wird über ganz unterschiedliche Theorieansätze hinweg geteilt und ist innerhalb der Organisationssoziologie praktisch unbestritten (March/Simon 1993; March 1988; Luhmann 2000; 1988; Ahrne/Brunsson 2011).[9] Angesichts dieser Zentralität von Entscheidungen überrascht es dann nicht, dass auch die organisationale Strukturbildung sich im Hinblick auf die Notwendigkeiten der Entscheidungsanfertigung vollzieht. So dienen die bereits oben angesprochenen Entscheidungsprämissen der Orientierung von Entscheidungen, indem sie Regeln für die (formale) Richtigkeit von Entscheidungen festlegen (Entscheidungsprogramme) und Verantwortlichkeiten zuweisen (Kommunikationswegregelungen).

Organisationale Entscheidungsprogramme zielen darauf ab, in einer ganzen Reihe von Entscheidungssituationen Orientierung zu schaffen. Darin besteht ihr Prämissencharakter und nur deswegen besitzen sie überhaupt einen Strukturwert. Mit Blick auf jede einzelne Entscheidungssituation sind Entscheidungsprogramme aufgrund ihrer generellen Orientierung jedoch unterbestimmt. Sie können Entscheidungsanlässe, Relevanzkriterien oder Informationsverarbeitungsregeln festschreiben. Entscheidungsprogramme entlasten aber nicht davon, konkrete Situationen als Anwendungsfälle spezifischer Programme zu identifizieren und die entsprechenden Entscheidungen dann auch mit Bezug auf diese Programme zu treffen und zu kommunizieren. Folglich sind personale Interpretationsleistungen erforderlich, um überhaupt zu einer Entscheidung zu kommen.

Für Zweckprogramme, die lediglich über angestrebte Wirkungen informieren, ist dies leicht zu sehen. Die bloße Fixierung erwünschter Wirkungen soll ja gerade die Suche nach – ganz unterschiedlichen – Mitteln motivieren. Eine ähnliche Unterbestimmtheit lässt sich aber auch mit Blick auf Konditionalprogramme feststellen. Zwar zielen Konditionalprogramme ihrer Funktion nach darauf ab, die Umwelt ausschließlich nach Maßgabe spezifischer, organisationsintern definierter Gesichtspunkte (‚wenn-dann‘-Kriterien) zu behandeln, um so Unregelmäßigkeiten in Regelmäßigkeiten zu überführen (Luhmann 1971a, 118 f.). Dennoch werden auch mit Blick auf Konditionalprogramme personale Zusatzleistungen in der Form situativer Interpretationen mindestens dort erforderlich, wo es um die Zuordnung konkreter Fälle zu den programmatisch fixierten Bedingungen geht. Nur weil solche Interpretationen notwendig sind, macht es zum Beispiel einen Unterschied, welcher Verwaltungssachbearbeiter konkret einen Bauantrag bearbeitet.

Vor diesem Hintergrund erscheinen organisationale Entscheidungsprogramme einerseits und jeweilig kommunizierte Entscheidungen andererseits dann in einem doppelten Sinne als lediglich lose miteinander gekoppelt. Zum einen und ganz grundsätzlich ist die Orientierung am Entscheidungsprogramm in dem Sinne unsicher, dass jeweilige personale Entscheider ihre Entscheidungen auch ‚gegen das Programm‘ treffen können. Entscheidungsprogramme können also ihre eigene Anwendung nicht selbst sicherstellen.[10] Ein zweiter Grund für die lose Kopplung liegt in der Unterbestimmtheit formaler Entscheidungsprogramme. Wie oben dargestellt weisen Entscheidungsprogramme immer auch einen unprogrammierten Rest auf, der durch personale Zusatzleistungen überbrückt werden muss. Je unbestimmter das Programm und je uneindeutiger die Entscheidungssituationen, desto eher ist damit zu rechnen, dass die personalen Entscheidungsleistungen einen Unterschied machen.

Der Haupteffekt dieser losen Kopplung von Entscheidungsprogramm und Entscheidungskommunikation liegt in der Produktion von Entscheidungsvarianz. Wenngleich Konditionalprogramme ihrer Funktion nach darauf ausgerichtet sind, eine regelmäßige, also eine erwartbar gleiche Behandlung von gleich gelagerten Fällen sicherzustellen, so erzeugt die Relevanz personaler Entscheidungsbeiträge doch eine gewisse Varianz in den Entscheidungen. Für Organisationen ist diese Entscheidungsvarianz durchaus funktional, weil sie die Organisationen mit einer Kontextsensitivität und Flexibilität ausstattet und es ihr dadurch ermöglicht, auch in solchen Situationen angemessen zu entscheiden, die im Programm nicht hinreichend reflektiert werden und in diesem Sinne überraschend sind.

Im Zuge der Algorithmisierung von Entscheidungsprozessen wird demgegenüber diese lose Kopplung durch eine feste Kopplung ersetzt. Die Algorithmisierung von Entscheidungsprozessen kann sich empirisch stark unterscheiden. Während im Fall des Hochfrequenzhandels an der Börse die Entscheidung über Kauf und Verkauf von Wertpapieren durch den Algorithmus vollzogen wird (siehe hierzu nochmals: Schwarting 2015), finden sich zahlreiche andere Beispiel, in denen lediglich Teile des Entscheidungsprozesses algorithmisiert sind. Dies betrifft dann etwa die algorithmusgestützte Auswertung von Daten und die daran anschließende Kategorisierung von Personen gemäß ihres Kreditrisikos oder hinsichtlich der Wahrscheinlichkeit den Anforderungen an die Kindeswohlwahrung nicht nachkommen zu können. In diesen Fällen verminderter Eingriffstiefe haben Algorithmen eher einen entscheidungsvorbereitenden Charakter oder ihre Outputs stellen die auslösende Wenn-Bedingung eines Konditionalprogramms dar (siehe hierzu auch den Beitrag von Büchner/Dosdall 2022).

Unabhängig aber von der Reichweite einer konkreten Algorithmisierung, gilt doch mindestens für jene Teile des Entscheidungsprozesses, die durch Algorithmen vollzogen werden, dass sie auf einer festen Kopplung basieren: Die Input-Daten werden durch den Algorithmus strikt nach den algorithmischen Verarbeitungsregeln prozessiert und in einen entsprechenden Output überführt.[11] Die Verwendung des Algorithmus ermöglicht dabei nicht allein die Verarbeitung enormer Datenmengen, sie stellt zudem – qua Technisierung – sicher, dass von den Verarbeitungsregeln nicht abgewichen wird. Im Gegensatz also zu den personal getragenen Entscheidungsprozessen ist die technisierte Informationsverarbeitung durch den Algorithmus durchaus determiniert und in diesem Sinne auch fest gekoppelt.[12]

Entscheidungsvarianz ist dann allenfalls seriell herzustellen, indem der Algorithmus verändert und neue Relevanzregeln einprogrammiert werden. Solche Umprogrammierungen sind aber etwas anderes als Variationen in der Auslegung des Programms bzw. in der situativen Sistierung der Programmanwendung. Stattdessen gilt für jede Version des Algorithmus, dass dieser im Sinne der oben beschriebenen Technisierung Entscheidungsregeln und Entscheidung fest koppelt – und dies exakt so lang, bis er abermals umprogrammiert wird (oder der selbstlernende Algorithmus sich selbst ändert).

Für Organisationen folgenreich ist diese feste Kopplung durch Technisierung insofern, als sie mit einem Verlust an Entscheidungsvarianz einhergeht. Angesprochen ist damit der Umstand, dass die oben mit Blick auf Personen diskutierten Mechanismen der Varianzerzeugung durch Algorithmen neutralisiert werden. Algorithmen sehen im Zuge der durch sie verarbeiteten Daten nicht fallweise von ihren eigenen Regeln der Datenverarbeitung ab. Auch können Algorithmen nicht spontan Zusatzinformationen jenseits der Regeln berücksichtigen oder bestimmte Aspekte eines Entscheidungsprogramms im Sinne einer „brauchbaren Illegalität“ (Luhmann 1964, 304–314; Kühl 2020) ‚kreativ‘ umgehen, um übergeordnete Organisationsziele zu erreichen. Kurz: Algorithmen können die situative Adaptivität der Anwendung ihrer eigenen Regeln nicht mitreflektieren. Für das Verhältnis von organisationalem Entscheidungsprogramm und Personal gilt, dass die Existenz eines Entscheidungsprogramms nicht auch schon die faktische Entscheidungsorientierung an diesem Programm sicherstellt. Insofern der Algorithmus aber die Verarbeitungsregel ist, fällt die Anwendung des Algorithmus mit der Anwendung der Verarbeitungsregeln zusammen. Im Ergebnis bedeutet Algorithmisierung das Umschalten von Entscheidungsorientierung auf Entscheidungsdeterminierung und mithin den Verlust von Entscheidungsvarianz. Als problematisch dürfte sich dieser Varianzverlust für Organisationen immer dann erweisen, wenn es auf Flexibilität, Innovation und spontane Abweichung ankommt, anstatt auf Stabilität und Berechenbarkeit (Hannan/Freeman 1984).

3.2 De-Personalisierung und Adressausfall

Die im vorherigen Abschnitt diskutierte feste Kopplung durch Technisierung und der damit einhergehende Verlust an Entscheidungsvarianz betrifft vor allem die Folgen der Algorithmisierung in der Sachdimension. Ebenso bedeutsam sind jedoch die Konsequenzen in der Sozialdimension. Auch sie sind eine Folge der Technisierung. Dabei ist es jedoch nicht die mit Technisierung verbundene Art der Informationsverarbeitung, sondern die mit der Technisierung einhergehende De-Personalisierung, die sich als problematisch erweist. Erkennbar wird sie vor dem Hintergrund der kommunikativen Bedeutung von Personen in organisationalen Entscheidungen.

Entscheidungen werden nur dann als Entscheidungen erkennbar und folglich auch organisational relevant, wenn sie kommunikativ als Entscheidungen markiert werden. Eine solche kommunikative Markierung kann aus zwei Richtungen erfolgen. Häufig werden Entscheidungen explizit als Entscheidungen kommuniziert. So etwa als amtlicher Bescheid, in Form eines Beschlusses, der zudem noch Eingang in ein Sitzungsprotokoll findet oder auch als ein telefonisch oder per E-Mail kommuniziertes: „Machen Sie es so!“ In diesen Fällen wird die kommunikative Markierung von den entscheidenden Personen selbst geleistet. Entscheidungen können aber auch retrospektiv und durch Dritte kommunikativ markiert werden. Solche retrospektiven Fremdmarkierungen kommen vor allem dann vor, wenn es darum geht, Verantwortlichkeiten zuzurechnen. In diesen Fällen kann praktisch alles Handeln ex post als Entscheidung behandelt und mit entsprechenden Folgen ausgestattet werden (Luhmann 1964, 177).

Anlässe für solche Verantwortlichkeitszurechnungen sind in Organisationen zahlreich. Schon die Verteilung der in Organisationen chronisch knappen Karrierechancen, lassen Selektionsentscheidungen erforderlich werden, die in meritokratisch orientierten Kulturen stets durch Verweise auf Leistungsunterschiede und mithin das Entscheidungsverhalten gerechtfertigt werden müssen (Itschert 2013). Zudem ist die Möglichkeit, Verantwortlichkeiten personal zurechnen zu können, wichtig, um im Falle unerwünschter organisationaler Entwicklungen, wie etwa Gesetzesverstößen oder Unfällen, die Fehler nicht auf die Organisation zurechnen zu müssen (Kette 2014; 2018a). Auch eine solche Personalisierung gelingt nur durch die (Re-)Konstruktion individueller Entscheidungsbeiträge.

Mit Blick auf die durch Algorithmen erzeugten Outputs laufen solche Versuche der Verantwortungszurechnung offenkundig zunächst ins Leere. Algorithmen vermögen es zwar, Unsicherheiten zu absorbieren. Sollten sich diese Komplexitätsreduktionen jedoch als dysfunktional erweisen, so lassen sie sich kaum als Fehler auf den Algorithmus zurechnen und schon gar nicht lässt sich der Algorithmus für die Folgen zur Rechenschaft ziehen. Die (teilweise) Ersetzung personaler Entscheidungsbeiträge durch Algorithmen läuft demnach auf einen Adressausfall bezüglich der Zurechenbarkeit von Verantwortlichkeiten hinaus. In der algorithmuskritischen Debatte wird dieser Umstand vor allem als ein moralisches Problem behandelt (siehe etwa Kemper/Kolkman 2019 sowie Matthias 2004). Vor dem Hintergrund der Ausführungen dieses Abschnitts lässt sich in der (partiellen) De-Personalisierung von Entscheidungsprozessen zunächst aber vor allem ein organisationales Problem erkennen.

Zusammengenommen zeigt sich, dass die Algorithmisierung von Entscheidungsprozessen spezifische organisationale Folgeprobleme hervorbringt, die insofern erwartbar sind, als Organisationen strukturell personenabhängig sind (Tacke/Drepper 2018, 99 ff.). Zwar lassen sich Informations- und Entscheidungsprozesse in Teilen – und in wenigen Fällen sogar gänzlich – technisieren. Diese Technisierung ist jedoch insofern unvollständig, als sekundäre personale Leistungen nicht mittechnisiert werden können: die situative Interpretation und Abweichung von Entscheidungsprogrammen sowie die dadurch erreichbaren adaptiven Effekte einerseits und die Verfügbarkeit von Adressaten für Verantwortungszuschreibungen andererseits.

Die beiden hier identifizierten Probleme des Verlusts an Entscheidungsvarianz sowie des Adressausfalls sind zunächst als organisationale Probleme zu verstehen. Die Effekte der Algorithmisierung auf die Organisationsumwelt geraten daher erst in den Blick, wenn wir nun die Perspektive umkehren und die organisationalen Mechanismen der Bearbeitung dieser Probleme herausarbeiten. Wie also, so lautet die Leitfrage für den folgenden Abschnitt, organisieren Organisationen die Algorithmisierung ihrer eigenen Entscheidungsprozesse?

4 Die Organisierung algorithmisierter Entscheidungen

Ein Zugriff auf die Bedeutung von Organisationen im Kontext der Algorithmisierung von Entscheidungsprozessen lässt sich gewinnen, wenn man genauer in den Blick nimmt, wie Organisationen mit den in der Algorithmisierung angelegten Problemen des Varianzverlusts und des Adressausfalls umgehen. Oder anders formuliert: Wie gelingt es Organisationen, trotz der identifizierten Folgeprobleme, die Algorithmisierung ihrer Entscheidungsprozesse zu organisieren? Angesprochen sind damit die Möglichkeitsbedingungen, unter denen die identifizierten Folgeprobleme der Algorithmisierung für Organisationen vermeidbar oder zumindest tragbar werden. Erst durch diesen Analyseschritt lässt sich die Algorithmisierung von Entscheidungsprozessen als organisational situiert begreifen. Sichtbar wird damit, welche Zurichtung die Algorithmisierung durch Organisationen als eigenlogische Systeme erfährt. Hieran anschließend kann dann die Frage nach den Effekten der Algorithmisierung erneut vorgelegt werden.

Die in Abschnitt 3 identifizierten Probleme ergeben sich aus der grundlegenden Funktionsweise der Algorithmen selbst. Ob und inwiefern sich diese Probleme in Organisationen tatsächlich realisieren, hängt jedoch vom jeweiligen organisationalen Kontext ab, in dem die Algorithmen zur Anwendung kommen. Hinsichtlich des Verlusts an Entscheidungsvarianz sind es insbesondere zwei Bedingungen, unter denen sich Organisationen ihre Entscheidungsvarianz trotz Algorithmisierung erhalten können: die Inanspruchnahme professionalisierter Wissensbestände einerseits, sowie die Einhegung von Algorithmen in komplexere Entscheidungsarchitekturen andererseits.

Wo Entscheidungsprozesse vollständig an Algorithmen übergeben und entsprechend automatisiert werden, wie etwa im oben angesprochenen Fall des Hochfrequenzhandels an der Börse, ist die feste Kopplung von Entscheidungsregel und Entscheidungsoperation kaum auflösbar und mithin auch nicht durch situative Abweichungen mit Varianz anzureichern. Anders verhält es sich jedoch mit Blick auf solche Fälle, in denen die algorithmisch erzeugten Informationen zwar Entscheidungen informieren, diese aber nicht auch schon vollziehen. Zwar gilt auch für diese algorithmisch erzeugten Informationen, dass sie aufgrund ihres technisierten Entstehungszusammenhangs eine gewisse Relevanzbehauptung mitführen. Gleichwohl finden typischerweise auch zusätzliche Informationen Berücksichtigung, vor deren Hintergrund die algorithmisch erzeugten Informationen relativiert oder in eine bestimmte Richtung hin ausgedeutet werden.

Ganz grundsätzlich dürfte eine solche Zurückweisung der durch die algorithmisch erzeugten Informationen nahegelegten Entscheidung sozial eher demotiviert werden. Schließlich wird Algorithmen eine gegenüber personalen Entscheidern überlegene Informationsverarbeitungskapazität zugeschrieben, wodurch Organisationsmitgliedern ein erheblicher Rechtfertigungsdruck aufgebürdet wird, wenn diese sich gegen die algorithmisch nahegelegte Alternative entscheiden. Schon um die eigenen Rechenschaftsrisiken zu minimieren, wird man daher eine Prävalenz der affirmativen Ratifizierung algorithmisch generierter Entscheidungsalternativen erwarten dürfen. Am ehesten ist mit emanzipatorischen Tendenzen gegen Algorithmen daher dort zu rechnen, wo Entscheidungen auf die Wissensbestände einer Profession abgestützt werden können.[13] Die Bedeutung personaler Entscheidungsbeiträge und die entsprechenden Chancen zur Steigerung der Entscheidungsvarianz erhöhen sich dann in dem Maße wie professionale Schemata bei der Anfertigung von Entscheidungen (re-)aktiviert werden. Dass solche Fälle empirisch durchaus vorkommen, zeigt sich etwa in der bereits oben angesprochenen Studie über die Jugendschutzbehörde im US-amerikanischen Allegheny.

In der von Virginia Eubanks (2018) untersuchten US-amerikanischen Jugendschutzbehörde „Allegheny County Office of Children, Youth and Families (CYF)“ ist das sogenannte „Allegheny Family Screening Tool (AFST)“ von großer Bedeutung. Dabei handelt es sich um einen Algorithmus, der 132 Variablen berücksichtigt und daraus einen Gefährdungsscore errechnet. Dieser stellt die wesentliche Grundlage für die Planung und Durchführung von intervenierenden Maßnahmen und Untersuchungen seitens der Jugendschutzbehörde dar. Die professionellen Entscheidungsspielräume zeigen sich in diesem Fall einerseits, wenn es darum geht, die zu bearbeitenden Kindesschutzfälle zu kategorisieren. Insbesondere mit Blick auf die Kategorie der Kindesvernachlässigung („neglect“) wird darauf hingewiesen, dass im Vergleich zur Kategorisierung von Kindesmissbrauch („abuse“) ein hohes Maß an „subjective judgment“ erforderlich sei (Eubanks 2018, 156 f.). Während in diesem Fall professionelle Urteile auf der Input-Seite des Algorithmus erforderlich und möglich werden, eröffnet auch die organisationale Weiterverarbeitung des algorithmisch generierten Risiko-Scores Möglichkeiten der professionellen Intervention, denn der AFST-Score „is not intended to make investigative or other child welfare decisions“ (2018, 141). Dass diese professionelle Autonomie gleichwohl fragil ist, wird deutlich, wenn die Autorin im Weiteren den Umgang mit dem AFST-Score beschreibt: „[F]rom what I saw in the call center during my visit, the model is already subtly changing how some intake screeners do their jobs” (2018, 141).[14]

Neben diesen Fällen der Professionsorientierung, ist es bisweilen aber auch der organisationale Kontext selbst, der die Strukturvoraussetzungen für eine Stärkung personaler Entscheidungsbeiträge und mithin für eine Erhöhung der Entscheidungsvarianz schafft. Dies ist immer dann der Fall, wenn algorithmisierte Entscheidungsprozesse in komplexere organisationale Entscheidungsarchitekturen eingebettet sind. Nur in sehr einfach gelagerten Fällen, sind organisationale Entscheidungen klar auf ein einzelnes Entscheidungsprogramm hin orientiert. Komplexere Entscheidungen hingegen weisen oftmals eine Orientierung an mehreren Entscheidungsprogrammen auf, die im Sinne einer Verbindung oder Verschachtelung (Luhmann 1968) aufeinander verweisen oder in Abhängigkeit zueinander stehen. So kann etwa die Auswahl möglicher Mittel im Rahmen eines Zweckprogramms durch zusätzliche Konditionalprogramme eingeschränkt werden oder das Resultat eines Konditionalprogramms wird zur Auslösebedingung eines weiteren Konditionalprogramms. Im Falle solch komplexerer Entscheidungsarchitekturen verdünnen sich gleichsam die im Zuge der Algorithmisierung erfolgten festen Kopplungen, da für die vor- und nachgelagerten organisationalen Entscheidungsprogramme gilt, was für nicht-algorithmisierte Entscheidungen in Organisationen immer schon galt: Sie entfalten ihre Relevanz erst und nur in die Richtung, wie sie durch personale Entscheidungsbeiträge aktiviert werden.[15]

Das zweite in Abschnitt 3 identifizierte Folgeproblem der Algorithmisierung betrifft den Adressausfall bezüglich der Zurechenbarkeit von Verantwortlichkeiten. Wenn Algorithmen Entscheidungen treffen oder auch nur entscheidungsvorbereitende bzw. -anleitende Informationen erzeugen, zeigt sich mit Blick auf die Möglichkeit der Zurechnung von Verantwortlichkeiten eine Leerstelle. Man mag zwar mit den Resultaten algorithmischer Informationsverarbeitungen unzufrieden sein oder die Konsequenzen algorithmischer Entscheidungen als untragbar befinden. In der kommunikativen Abwicklung solcher Enttäuschungen kann der Algorithmus aber allenfalls als gescheiterte Technik und folglich als Objekt des Scheiterns thematisiert werden. Als Entscheidungssubjekt und mithin für die Sozialposition des Entscheiders kommt er hingegen kaum in Frage. Der Algorithmus erscheint also nicht als Verursacher des fraglichen Problems, sondern allenfalls selbst als ein Problem.

Sofern auf eine solche Sachanalyse auch Konsequenzen in der Sozialdimension folgen sollen, wird es unumgänglich alternative Zurechnungsadressaten jenseits des Algorithmus zu identifizieren, um diesen die entsprechenden Verantwortlichkeiten zurechnen zu können. Hierzu ist es erforderlich, Stellen innerhalb der Organisation zu identifizieren, die als Adressaten entsprechender Verantwortlichkeitszurechnungen mobilisiert werden können, in dem sie behandelt werden, als ob sie für den algorithmischen Output und dessen Folgen verantwortlich wären. Solche Verantwortlichkeitsproxys entstehen entweder, indem Entscheidungszurechnungen verschoben werden oder durch Politisierung.

Entscheidungszurechnungen zu verschieben bedeutet, dass der Algorithmus innerhalb der Organisation kommunikativ als eine Technik behandelt wird, für die gilt, was für jede Technologie gilt: sie kann besser oder schlechter funktionieren, man kann sie mehr oder weniger kompetent bedienen und mit ihren Resultaten kann man angemessener oder weniger angemessen umgehen. Kommunikativ wird dann nicht den Operationen oder den Outputs des Algorithmus eine Entscheidungsqualität zugeschrieben, sondern den auf den Algorithmus bezogenen Aktivitäten der Organisationsmitglieder. Die Chancen der Zurechnung von Verantwortlichkeiten verschieben sich dann parallel dazu entweder nach vorne oder nach hinten. Wo sie nach hinten verschoben werden, geraten Programmierer oder sonstige an der Konzeption des Algorithmus beteiligte Personen und deren Planungsentscheidungen in den Blick. Die Frage ist dann etwa, warum diese und nicht jene Daten vom Algorithmus berücksichtigt bzw. nicht berücksichtigt wurden. Werden Entscheidungen hingegen nach vorne verschoben, gerät unter Verantwortlichkeitsgesichtspunkten in den Blick, wie der algorithmische Output innerhalb der Organisation weiterverarbeitet wird. Insbesondere wo Algorithmen Entscheidungen soweit vorzeichnen, dass sie lediglich noch einer Ratifizierung durch zuständige Stellen bedürfen, wie etwa im Falle des Credit-Scorings, wird mit der Entscheidung durch das Organisationsmitglied lediglich eine Adresse für gegebenenfalls notwendig werdende Verantwortlichkeitszurechnungen hinzugefügt.

Im Fall der Entscheidungspolitisierung wird auf einen solchen direkten Algorithmusbezug gänzlich verzichtet. Stattdessen werden Verantwortlichkeiten in dem Sinne gleichsam politisch zugerechnet, als bestimmte organisationale Stellen – zumeist recht weit oben in der Hierarchie – für die durch die Anwendung von Algorithmen erzeugten Effekte zur Rechenschaft gezogen werden – und zwar unabhängig davon, inwiefern sie selbst Entscheidungen mit Bezug auf algorithmische Outputs getroffen haben. Im Fall des Hochfrequenzhandels an der Börse findet man solche Stellen etwa als Chief Investment Officer (CIO). Diese Stelleninhaber tragen die Verantwortung für die Profitabilität des Investmentgeschäfts und damit auch für die Effekte der durch Algorithmen vollzogenen Kauf- und Verkaufsoperationen (Schwarting 2015, 171). Politisiert ist diese Verantwortlichkeit insofern, als die entsprechenden Investmententscheidungen zumeist auf unteren Hierarchieebenen – oder eben durch Algorithmen – getroffen werden und der CIO damit lediglich als Zurechnungspunkt für die Attribuierung einer Gesamtverantwortlichkeit fungiert.

Sowohl Entscheidungsverschiebungen wie auch Entscheidungspolitisierungen lassen sich als Mechanismen der Schaffung von Verantwortlichkeitsproxys begreifen. Damit wird deutlich, dass die Organisierung der Algorithmisierung von Entscheidungsprozessen insbesondere auch eine Organisierung von Zurechnungsadressen für die Attribuierung von Verantwortlichkeiten darstellt. In der Zusammenschau dieses Abschnitts 4 zeigt sich überdies, dass Organisationen über spezifische Mechanismen verfügen, um die Folgeprobleme einer Algorithmisierung von Entscheidungsprozessen bearbeiten zu können. Hinsichtlich des Problems reduzierter Entscheidungsvarianz sind es die Aktivierung professioneller ‚Gegen-Expertise‘ sowie die Einhegung algorithmisierter Entscheidungsbeiträge in komplexere Entscheidungsarchitekturen, die Raum schaffen für die varianzerzeugenden Effekte personaler Entscheidungsbeiträge. Das Problem des Adressausfalls wird durch die Schaffung von Verantwortlichkeitsproxys bearbeitet. In der Folge bleiben die Effekte algorithmisierter Entscheidungsbeiträge somit unter Verantwortlichkeitsgesichtspunkten zurechenbar – wenngleich nur lose an den algorithmischen Output gekoppelt. Von diesem Punkt aus wird es nun abschließend möglich, die Effekte der Algorithmisierung von Entscheidungsprozessen als Effekte einer organisational situierten Algorithmisierung von Entscheidungsprozessen in den Blick zu nehmen und zu prüfen, welchen Unterschied die Organisation hinsichtlich der außerorganisationalen Algorithmisierungseffekte macht.

5 Fazit: Der organisationale Unterschied

Das Anliegen dieses Beitrags war es, auf die organisationale Situiertheit algorithmisierter Entscheidungsprozesse aufmerksam zu machen. Dieses Interesse gründete in der Hintergrundannahme, dass die Algorithmisierung von Entscheidungsprozessen durch die organisationale Eigenlogik gebrochen wird und dass sich die gesellschaftlichen Effekte des algorithmic decision making dementsprechend nur dann angemessen beschreiben lassen, wenn diesem Umstand auch in der soziologischen Analyse Rechnung getragen wird und sie als Effekte des organisationalen Umgangs mit den organisationalen Folgeproblemen der Algorithmisierung untersucht werden.

Von diesen Überlegungen ausgehend wurde ein mehrstufiges Vorgehen notwendig, welches zunächst den Verlust von Entscheidungsvarianz und den Ausfall von Adressen der Verantwortlichkeitszurechnung als die beiden zentralen organisationalen Probleme im Kontext der Algorithmisierung identifizierte (Abschnitt 3). Hieran anschließend konnte gezeigt werden, dass Organisationen über spezifische Mechanismen verfügen, um diese Probleme abzumildern: Durch die Stärkung personaler Entscheidungsbeiträge kann die Entscheidungsvarianz erhöht werden und durch die Schaffung von Verantwortlichkeitsproxys bleiben Entscheidungen auch dort zurechenbar, wo Algorithmen zum Zuge kommen (Abschnitt 4).

Abschließend soll nun noch gefragt werden, inwieweit sich hieraus ein anderes Bild bezüglich der außerorganisationalen Effekte der Algorithmisierung von Entscheidungsprozessen ergibt. Als Ausgangspunkt hierfür dienen die beiden in Abschnitt 2 identifizierten Hauptkritikpunkte, welche im Rahmen der Debatte um algorithmic decision making regelmäßig angeführt werden: Das ‚Bias-Problem‘ und das ‚Black-Box-Problem‘.

Als ‚Bias-Problem‘ wurden hier all jene Aspekte zusammengefasst, die in der Debatte um algorithmisches Entscheiden auf die entscheidungsverzerrenden Effekte von Algorithmen hinweisen. Insofern die algorithmische Informationsverarbeitung strikt programmgebunden verläuft, führe dies zwangsläufig dazu, dass die Präferenzen und Relevanzstrukturen der Programmierer überbetont und undifferenziert zur Anwendung kämen. Insbesondere aus einer kritischen Perspektive heraus wird in diesem Zusammenhang regelmäßig auf die Gefahr diskriminierender Effekte hingewiesen. Vor dem Hintergrund der hier vorgeschlagenen Perspektiverweiterung scheinen Organisationen eher zur Entschärfung des Problems beizutragen. Der Kern des ‚Bias-Problems‘ liegt nämlich darin begründet, dass Algorithmen gerade nicht diskriminierungsfähig sind und sie tatsächlich alle Fälle nach den streng gleichen Kriterien behandeln. Gerade diese konsequent-undifferenzierte Behandlung von Fällen durch Algorithmen, wird jedoch durch die organisational ermöglichte Stärkung personaler Entscheidungsbeiträge abgemildert. Wo algorithmische Outputs durch Personen weiterverarbeitet werden, steigen die Chancen für kontextsensible und fallspezifische Entscheidungen.

Anders als das Bias-Problem ist hinsichtlich des ‚Black-Box-Problems‘ nicht mit einer spezifischen Abmilderung durch den Umstand der organisationalen Situiertheit algorithmisierter Entscheidungsprozesse zu rechnen. Zwar mögen Organisationen in wohl seltenen Einzelfällen durchaus die von ihnen verwendeten Algorithmen offenlegen. An dem in der algorithmuskritischen Debatte beklagten Grundproblem, wonach Algorithmen nur für wenige Spezialisten verständlich sind, ändert dies aber nichts. Zugleich wird man aber auch sehen müssen, dass das Problem der Opazität nicht erst mit der Algorithmisierung von Entscheidungsprozessen entsteht. Vielmehr sind Black-Box-Phänomene ein Nebeneffekt organisationaler Arbeitsteilung und der in arbeitsteiligen Strukturen geleisteten Unsicherheitsabsorption. Die Vorstellung, dass Organisationen erst mit der Algorithmisierung ihrer Entscheidungsprozesse intransparent würden, verkennt also das Ausmaß der im Kontext von Organisationen aus strukturellen Gründen immer schon zu findenden Entscheidungsintransparenz.

Ein letztes Problem, auf das hin die Effekte der organisationalen Situiertheit von algorithmisierten Entscheidungsprozessen geprüft werden sollen, ist das Verantwortungsproblem. Damit ist der Umstand angesprochen, dass Algorithmen selbst nicht für die durch sie erzeugten Entscheidungsbeiträge verantwortlich gemacht werden können. Wie in Abschnitt 4 diskutiert, stellt sich das Problem der Verantwortungszurechnung zwar auch innerhalb und für Organisationen. Zugleich wird es aber auch innerhalb von Organisationen bearbeitet – und damit für die organisationale Umwelt entschärft. So ist es gerade die durch Organisationen geleistete Schaffung von Verantwortungsproxys, durch die zwar nicht die Algorithmen selbst zurechnungsfähig werden; wohl aber werden auf diese Weise Adressen für die – auch gesellschaftliche – Zurechnung von Verantwortlichkeiten für algorithmisch erzeugte Entscheidungsbeiträge verfügbar. Dabei dient mit Blick auf die gesellschaftliche Umwelt schon die Organisation selbst als ein solcher Zurechnungsadressat. Insbesondere vor diesem Hintergrund wird dann nochmals deutlich, dass der organisationsinternen Konstruktion personaler Verantwortungsproxys die Funktion zufällt, gesellschaftliche Rechenschaftsansprüche organisationsintern auf Personen durchzureichen und damit sowohl die Organisation selbst wie auch die von ihr verwendeten Algorithmen zu entproblematisieren und dementsprechend schützen zu können (Kette 2014).[16]

In der Zusammenschau zeigen die hier vorgetragenen Analysen, dass die Einbeziehung des sozialen Kontextes, innerhalb dessen sich die Algorithmisierung von Entscheidungsprozessen vollzieht, eine komplexere aber auch differenziertere Perspektive auf die Konsequenzen der Algorithmisierung eröffnet. Die in der Debatte um algorithmic decision making dominierende Perspektive einer Dekonstruktion der Funktionsweise des Algorithmus bleibt unvollständig, wenn nicht zur Kenntnis genommen wird, dass die Algorithmisierungsprozesse nicht im luftleeren Raum stattfinden, sondern sie sich innerhalb von Organisationen vollziehen, an deren Eigenlogik sich die Algorithmisierung bricht. Diese Brechungen in den Blick zu nehmen ist aber die Voraussetzung, um auch noch die gesellschaftlichen Konsequenzen der Algorithmisierung von Entscheidungsprozessen beschreiben und verstehen zu können.

Sichtbar wird dann, dass die Algorithmisierung von Entscheidungsprozessen zwar durchaus Probleme erzeugt. Dabei handelt es sich jedoch zum einen um solche Probleme, die sich im Zusammenhang mit Organisationen immer schon stellen und denen durch die Einbeziehung von Algorithmen nichts qualitativ Neues hinzugefügt wird (Black-Box-Probleme). Zum anderen tragen Organisationen aber auch zur Entschärfung von Problemen der Algorithmisierung bei (Bias-Probleme und Verantwortlichkeitsprobleme).

Abschließend seien zwei Implikationen herausgestellt, die sich aus den vorliegenden Analysen und der organisationssoziologischen Perspektiverweiterung ergeben. Dies betrifft zum einen die kritisch-normativ orientierte Algorithmusdebatte. Vor dem Hintergrund der hier vorgetragenen Analyse erscheint die Kritik an Algorithmen bzw. an algorithmisierten Entscheidungsprozessen insofern verkürzt, als die organisationale Situiertheit und die in diesem Kontext stattfindende Zurichtung der Effekte algorithmisierten Entscheidens übersehen wird. Zwar mag die Analyse der Effekte algorithmisierten Entscheidens im Prinzip überzeugen; ihre empirischen Effekte zeigen sich jedoch erst, wenn man auch die sozialen Kontexte ihrer Anwendung in Rechnung stellt. Eine in diesem Sinne organisationstheoretisch aufgeklärte Algorithmuskritik wäre dann in erster Linie als Organisationskritik zu formulieren (Kette/Tacke 2015). Dass eine solche Organisationskritik in algorithmuskritischer Absicht selbst ambivalent ausfallen müsste, zeigt sich spätestens, wenn man in Rechnung stellt, dass es gerade die organisationale Situiertheit ist, welche die genuin durch Algorithmen erzeugten Probleme, einhegt und in ihren Folgen abmildert.

Der zweite Punkt betrifft die Frage, inwieweit sich mit der Algorithmisierung von Entscheidungsprozessen die gesellschaftliche Bedeutung von Organisationen verschiebt. Anstatt von einem Bedeutungsverlust der Organisation auszugehen und Algorithmen mithin als funktionale Äquivalente zu Organisationen zu begreifen, legen die Analysen dieses Beitrags es eher nahe, mit einem Relevanzanstieg der Organisation zu rechnen. Nicht nur sind es Organisationen, welche entsprechende Entscheidungsprozesse algorithmisieren. Vielmehr sind es auch Organisationen, welche die Folgeprobleme der Algorithmisierung abmildern. Soweit es um die Effekte der Algorithmisierung geht, erscheinen Organisationen mithin als Problem und Lösung zugleich. Eine Gesellschaft, die sich algorithmisierte Entscheidungsprozesse zumutet, wird es sich daher kaum erlauben können, Organisationen in ihrer Bedeutung zu marginalisieren.

About the author

PD Dr. Sven Kette

Sven Kette (Dr. phil.) ist Privatdozent am Soziologischen Seminar der Universität Luzern. Aktuell vertritt er die Professur ‚Soziologie mit Schwerpunkt Arbeit, Wirtschaft und Organisation‘ an der TU Chemnitz. Schwerpunktmäßig forscht er zu Fragen der Organisationssoziologie, der Soziologie der Bewertung und des Vergleichs, der Wirtschafts- und Finanzsoziologie sowie der Soziologie der Digitalisierung. Wichtige Publikationen: Dynamiken der Meta-Formalisierung von Moral: Entdifferenzierung und Personalisierung im Kontext organisationalen Compliance Managements, in: André Armbruster/Cristina Besio (Hrsg.), Organisierte Moral: Zur Ambivalenz von Gut und Böse in Organisationen. Wiesbaden, 2021; Unternehmen. Eine sehr kurze Einführung. Wiesbaden, 2018; Refinanzierung als Organisationsproblem: Vorarbeiten zu einer geldsensitiven Organisationssoziologie. Zeitschrift für Soziologie 46 (2017) (5).

Literatur

Abbott, Andrew (1988): The System of Professions. An Essay on the Division of Expert Labor. Chicago, Ill.: Univ. of Chicago Press.10.7208/chicago/9780226189666.001.0001Suche in Google Scholar

Ahrne, Göran/Brunsson, Nils (2011): Organization Outside Organizations. The Significance of Partial Organization. Organization 18, 83–104.10.1177/1350508410376256Suche in Google Scholar

Bennett Moses, Lyria/Chan, Janet (2016): Algorithmic Prediction in Policing. Assumptions, Evaluation, and Accountability. Policing and Society 28, 806–822.10.1080/10439463.2016.1253695Suche in Google Scholar

Bensman, Joseph/Gerver, Israel (1963): Crime and Punishment in the Factory. The Function of Deviancy in Maintaining the Social System. American Sociological Review 28, 588–598.10.4324/9781315203850-10Suche in Google Scholar

Besio, Cristina (2019): Entscheidungstheorien, in: Maja Apelt/Ingo Bode et al. (Hrsg.), Handbuch Organisationssoziologie. Wiesbaden: Springer VS (https://doi.org/10.1007/978-3-658-15953-5_7-1).10.1007/978-3-658-15953-5_7-1Suche in Google Scholar

Blau, Peter M. (1982): Konsultation unter Kollegen, in: Wolfgang Conrad/Wolfgang Streeck (Hrsg.), Elementare Soziologie. Opladen: Westdeutscher Verlag, 102–116.Suche in Google Scholar

Boyd, Danah/Crawford, Kate (2012): Critical Questions for Big Data. Information, Communication & Society 15, 662–679.10.1080/1369118X.2012.678878Suche in Google Scholar

Bozdag, Engin (2013): Bias in Algorithmic Filtering and Personalization. Ethics and Information Technology 15, 209–227.10.1007/s10676-013-9321-6Suche in Google Scholar

Brayne, Sarah (2017): Big Data Surveillance. The Case of Policing. American Sociological Review 82, 977–1008.10.1017/9781108354721.026Suche in Google Scholar

Bromley, Patricia/Powell, Walter W. (2012): From Smoke and Mirrors to Walking the Talk. Decoupling in the Contemporary World. The Academy of Management Annals 6, 483–530.10.5465/19416520.2012.684462Suche in Google Scholar

Brunsson, Nils (1989): The Organization of Hypocrisy. Talk, Decisions and Actions in Organizations. Chichester: Wiley.Suche in Google Scholar

Büchner, Stefanie (2018): Zum Verhältnis von Digitalisierung und Organisation. Zeitschrift für Soziologie 47, 332–348.10.1515/zfsoz-2018-0121Suche in Google Scholar

Büchner, Stefanie/Dosdall, Henrik (2021): Organisation und Algorithmus. Wie algorithmische Kategorien, Vergleiche und Bewertungen durch Organisationen relevant gemacht werden. Kölner Zeitschrift für Soziologie und Sozialpsychologie 32, 333–357.10.1007/s11577-021-00752-0Suche in Google Scholar

Büchner, Stefanie/Dosdall, Henrik (2022): Organisation und digitale Technologien. Predictive Policing im organisationalen Kontext. Soziale Systeme 26, 217–239 (in diesem Band).10.1515/sosys-2021-0008Suche in Google Scholar

Burrell, Jenna (2016): How the Machine ‘Thinks’. Understanding Opacity in Machine Learning Algorithms. Big Data & Society 3, 1–12.10.1177/2053951715622512Suche in Google Scholar

Citron, Danielle K./Pasquale, Frank (2014): The Scored Society. Due Process for Automated Predictions. Washington Law Review 89, 1–33.Suche in Google Scholar

Danaher, John (2016): The Threat of Algocracy. Reality, Resistance and Accommodation. Philosophy & Technology 29, 245–268.10.1007/s13347-015-0211-1Suche in Google Scholar

Dolata, Ulrich (2015): Volatile Monopole. Konzentration, Konkurrenz und Innovationsstrategien der Internetkonzerne. Berliner Journal für Soziologie 24, 505–529.10.1007/s11609-014-0261-8Suche in Google Scholar

Dolata, Ulrich (2019): Privatization, Curation, Commodification. Commercial Platforms on the Internet. Österreichische Zeitschrift für Soziologie 44 (Special Issue: Digitalization and Society), 181–197.10.1007/s11614-019-00353-4Suche in Google Scholar

Esposito, Elena (2017): Artificial Communication? The Production of Contingency by Algorithms. Zeitschrift für Soziologie 46, 249–265.10.1515/zfsoz-2017-1014Suche in Google Scholar

Eubanks, Virginia (2018): Automating Inequality. How High-tech tools Profile, Police, and Punish the Poor. New York: St. Martin’s Press.Suche in Google Scholar

Faraj, Samer/Pachidi, Stella/Sayegh, Karla (2018): Working and Organizing in the Age of the Learning Algorithm. Information and Organization 28, 62–70.10.1016/j.infoandorg.2018.02.005Suche in Google Scholar

Gouldner, Alvin W. (1954): Patterns of Industrial Bureaucracy. A Case Study of Modern Factory Administration. New York: Free Press.Suche in Google Scholar

Groddeck, Victoria v./Siri, Jasmin/Mayr, Katharina (2016): Die Entscheidungsvergessenheit der Organisationsforschung. Plädoyer für eine operative Entscheidungsforschung. Soziale Systeme 20, 167–192.10.1515/sosys-2015-0004Suche in Google Scholar

Grothe-Hammer, Michael (2019): Die De-Organisation von Organisation? Zu den Konsequenzen des Ersetzens menschlicher Entscheiderinnen und Entscheider durch Algorithmen in Organisationen, in: Nicole Burzan (Hrsg.), Komplexe Dynamiken globaler und lokaler Entwicklungen. Verhandlungen des 39. Kongresses der Deutschen Gesellschaft für Soziologie in Göttingen 2018 (https://publikationen.soziologie.de/index.php/kongressband_2018/article/view/1183).Suche in Google Scholar

Hannan, Michael T./Freeman, John (1984): Structural Inertia and Organizational Change. American Sociological Review 49, 149–164.10.2307/j.ctvjz813k.7Suche in Google Scholar

Hirsch-Kreinsen, Hartmut (2015): Digitalisierung von Arbeit. Folgen, Grenzen und Perspektiven. Soziologisches Arbeitspapier Nr. 43/2015. Dortmund: TU Dortmund.Suche in Google Scholar

Hoffmann, Anna L. (2019): Where Fairness Fails. Data, Algorithms, and the Limits of Antidiscrimination Discourse. Information, Communication & Society 22, 900–915.10.1080/1369118X.2019.1573912Suche in Google Scholar

Itschert, Adrian (2013): Jenseits des Leistungsprinzips. Soziale Ungleichheit in der funktional differenzierten Gesellschaft. Bielefeld: transcript.10.1515/transcript.9783839422335Suche in Google Scholar

Kemper, Jakko/Kolkman, Daan (2019): Transparent to Whom? No Algorithmic Accountability Without a Critical Audience. Information, Communication & Society 22, 2081–2096.10.1080/1369118X.2018.1477967Suche in Google Scholar

Kenney, Martin/Zysman, John (2016): The Rise of the Platform Economy. Issues in Science & Technology 32, 61–69.Suche in Google Scholar

Kette, Sven (2014): Diskreditiertes Scheitern. Katastrophale Unfälle als Organisationsproblem, in: Jens Bergmann/Matthias Hahn et al. (Hrsg.), Scheitern. Organisations- und wirtschaftssoziologische Analysen. Wiesbaden: Springer VS, 159–181.10.1007/978-3-658-01652-4_7Suche in Google Scholar

Kette, Sven (2018a): Unsichere Verantwortungszurechnungen. Dynamiken organisationalen Compliance Managements. GesundheitsRecht 17, 3–6.10.9785/gesr-2018-0105Suche in Google Scholar

Kette, Sven (2018b): Unternehmen. Eine sehr kurze Einführung. Wiesbaden: Springer VS.Suche in Google Scholar

Kette, Sven/Tacke, Veronika (2015): Systemtheorie, Organisation und Kritik, in: Albert Scherr (Hrsg.), Systemtheorie und Differenzierungstheorie als Kritik. Perspektiven in Anschluss an Niklas Luhmann. Weinheim: Beltz Juventa, 232–265.Suche in Google Scholar

Kirchner, Stefan (2019): Digitalisierung: Reorganisieren ohne Organisation?, in: Maja Apelt/Ingo Bode et al. (Hrsg.), Handbuch Organisationssoziologie. Wiesbaden: Springer VS (https://doi.org/10.1007/978-3-658-15953-5_35-1).10.1007/978-3-658-15953-5_35-1Suche in Google Scholar

Kirchner, Stefan/Beyer, Jürgen (2016): Die Plattformlogik als digitale Marktordnung. Zeitschrift für Soziologie 45, 324–339.10.1515/zfsoz-2015-1019Suche in Google Scholar

Kitchin, Rob (2016): Thinking Critically About and Researching Algorithms. Information, Communication & Society 20, 14–29.10.4324/9781351200677-2Suche in Google Scholar

Kiviat, Barbara (2019): The Moral Limits of Predictive Practices. The Case of Credit-Based Insurance Scores. American Sociological Review 84, 1134–1158.10.1177/0003122419884917Suche in Google Scholar

Kleemann, Frank/Voß, G. Günter/Rieder, Kerstin (2008): Crowdsourcing und der Arbeitende Konsument. AIS-Studien 1, 29–44.Suche in Google Scholar

Kühl, Stefan (2019): Jenseits von zweckrationalen Steuerungsphantasien im Management, in: Maja Apelt/Ingo Bode et al. (Hrsg.), Handbuch Organisationssoziologie. Wiesbaden: Springer VS (https://doi.org/10.1007/978-3-658-15953-5_62-1).10.1007/978-3-658-15953-5_62-1Suche in Google Scholar

Kühl, Stefan (2020): Brauchbare Illegalität. Vom Nutzen des Regelbruchs in Organisationen. Frankfurt a.M./New York: Campus.Suche in Google Scholar

Langley, Paul/Leyshon, Andrew (2017): Platform Capitalism. The Intermediation and Capitalization of Digital Economic Circulation. Finance and Society 3, 11–31.10.2218/finsoc.v3i1.1936Suche in Google Scholar

Lee, Francis/Björklund Larsen, Lotta (2019): How Should We Theorize Algorithms? Five Ideal Types in Analyzing Algorithmic Normativities. Big Data & Society 6, 1–6.10.1177/2053951719867349Suche in Google Scholar

Leimeister, Jan M./Shkodran, Zogaj (2013): Neue Arbeitsorganisation durch Crowdsourcing. Eine Literaturstudie. Arbeitspapier No 287. Düsseldorf: Hans-Böckler-Stiftung.Suche in Google Scholar

Luhmann, Niklas (1964): Funktionen und Folgen formaler Organisation. Berlin: Duncker & Humblot.10.1007/978-3-658-23434-8_10Suche in Google Scholar

Luhmann, Niklas (1966): Recht und Automation in der öffentlichen Verwaltung. Eine verwaltungswissenschaftliche Untersuchung. Berlin: Duncker & Humblot.10.3790/978-3-428-00960-2Suche in Google Scholar

Luhmann, Niklas (1968): Die Programmierung von Entscheidungen und das Problem der Flexibilität, in: Renate Mayntz (Hrsg.), Bürokratische Organisation. Köln: Kiepenheuer & Witsch, 324–341.Suche in Google Scholar

Luhmann, Niklas (1971a): Lob der Routine, in: Niklas Luhmann, Politische Planung. Aufsätze zur Soziologie von Politik und Verwaltung. Opladen: Westdt. Verlag, 113–142.10.1007/978-3-663-07662-9_8Suche in Google Scholar

Luhmann, Niklas (1971b): Zweck – Herrschaft – System. Grundbegriffe und Prämissen Max Webers, in: Niklas Luhmann, Politische Planung. Aufsätze zur Soziologie von Politik und Verwaltung. Opladen: Westdt. Verlag, 90–112.10.1007/978-3-663-07662-9_7Suche in Google Scholar

Luhmann, Niklas (1988): Organisation, in: Willi Küpper/Günther Ortmann (Hrsg.), Mikropolitik. Rationalität, Macht und Spiele in Organisationen. Opladen: Westdt. Verlag, 165–185.10.24894/HWPh.5323Suche in Google Scholar

Luhmann, Niklas (2000): Organisation und Entscheidung, hrsg. von Dirk Baecker. Opladen: Westdt. Verl.10.1007/978-3-322-97093-0Suche in Google Scholar

March, James G. (Hrsg.) (1988): Decisions and Organizations. New York: Blackwell.Suche in Google Scholar

March, James G./Simon, Herbert A. (1993): Organizations. Cambridge, Mass.: Blackwell.10.2307/j.ctv1f886rp.23Suche in Google Scholar

Matthias, Andreas (2004): The Responsibility Gap. Ascribing Responsibility for the Actions of Learning Automata. Ethics and Information Technologies 6, 175–183.10.1007/s10676-004-3422-1Suche in Google Scholar

Menz, Wolfgang/Tomazic, Ana C. (2017): Gerechte neue Arbeitswelt? Crowdworking aus normativ-empirischer Perspektive der Soziologie, in: Martin Dabrowski/Judith Wolf (Hrsg.), Crowdworking und Gerechtigkeit auf dem Arbeitsmarkt. Paderborn: Ferdinand Schöningh, 9–29.Suche in Google Scholar

Merton, Robert K. (1940): Bureaucratic Structure and Personality. Social Forces 18, 560–568.10.1037/11302-024Suche in Google Scholar

Mittelstadt, Brent D./Allo, Patrick et al. (2016): The Ethics of Algorithms. Mapping the Debate. Big Data & Society 3, 1–21.10.1177/2053951716679679Suche in Google Scholar

Nassehi, Armin (2019): Muster. Theorie der digitalen Gesellschaft. München: C.H. Beck.10.17104/9783406740251Suche in Google Scholar

Neyland, Daniel/Möllers, Norma (2016): Algorithmic IF … THEN Rules and the Conditions and Consequences of Power. Information, Communication & Society 20, 45–62.10.4324/9781351200677-4Suche in Google Scholar

Purves, Duncan/Jenkins, Ryan/Strawser, Bradley J. (2015): Autonomous Machines, Moral Judgment, and Acting for the Right Reasons. Ethical Theory and Moral Practice 18, 851–872.10.1007/s10677-015-9563-ySuche in Google Scholar

Rachlitz, Kurt (2022): Digitalisierung von und durch Organisationen, in: Corinna Onnen/Rita Stein-Redent et al. (Hrsg.), Organisationen in Zeiten der Digitalisierung. Wiesbaden: Springer, 23–61.10.1007/978-3-658-36514-1_3Suche in Google Scholar

Rammert, Werner (2016): Technik – Handeln – Wissen. Wiesbaden: Springer VS.10.1007/978-3-658-11773-3Suche in Google Scholar

Ringel, Leopold (2018): Boundaries of Visibility in the Age of Transparency. An integrative Conceptualization, in: Leopold Ringel/Petra Hiller/Charlene Zietsma (Hrsg.), Toward permeable Boundaries of Organizations? Bingley: Emerald, 55–79.10.1108/S0733-558X20180000057003Suche in Google Scholar

Schnell, Christiane/Pfeiffer, Sabine/Hardenberg, Roland (Hrsg.) (2021): Gutes Arbeiten im digitalen Zeitalter. Frankfurt a.M.: Campus.Suche in Google Scholar

Schwarting, Rena (2015): Hochfrequenzhandel zwischen Entscheidungsautomation und Entscheidungsautonomie, in: Maja Apelt/Konstanze Senge (Hrsg.), Organisation und Unsicherheit. Wiesbaden: Springer VS, 159–174.10.1007/978-3-531-19237-6_10Suche in Google Scholar

Srnicek, Nick (2017): Platform Capitalism. Cambridge, UK/Malden, MA: Polity Press.Suche in Google Scholar

Stinchcombe, Arthur L. (1990): Information and Organizations. Berkeley: University of California Press.10.1525/9780520909625Suche in Google Scholar

Stinchcombe, Arthur L. (2001): When Formality Works. Authority and Abstraction in Law and Organizations. Chicago: University of Chicago Press.Suche in Google Scholar

Sundararajan, Arun (2016): The Sharing Economy. The End of Employment and the Rise of Crowd-based Capitalism. Cambridge, Mass./London: The MIT Press.Suche in Google Scholar

Tacke, Veronika (2019): Systemtheorie der Organisation. Niklas Luhmann, in: Maja Apelt/Ingo Bode et al. (Hrsg.), Handbuch Organisationssoziologie. Wiesbaden: Springer VS (https://doi.org/10.1007/978-3-658-15953-5_11-1).10.1007/978-3-658-15953-5_11-1Suche in Google Scholar

Tacke, Veronika/Drepper, Thomas (2018): Soziologie der Organisation. Wiesbaden: Springer VS.10.1007/978-3-658-15063-1Suche in Google Scholar

Taylor, Frederick W. (1967): The Principles of Scientific Management. New York: Norton.Suche in Google Scholar

Vanian, Jonathan (2018): Unmasking A.I.’s Bias Problem. Fortune, 25.06.2018, 54–62.Suche in Google Scholar

Weber, Max (1980 [1921/22]): Wirtschaft und Gesellschaft. Grundriss der verstehenden Soziologie. Rev. Aufl., besorgt von Johannes Winckelmann. Tübingen: Mohr Siebeck.Suche in Google Scholar

Weick, Karl E. (1976): Educational Organizations as Loosely Coupled Systems. Administrative Science Quarterly 21, 1–19.10.1007/978-3-642-27922-5_25Suche in Google Scholar

Weick, Karl E. (1985): Der Prozeß des Organisierens. Frankfurt a.M.: Suhrkamp.Suche in Google Scholar

Zarsky, Tal (2015): The Trouble with Algorithmic Decisions. Science, Technology, & Human Values 41, 118–132.10.1177/0162243915605575Suche in Google Scholar

Published Online: 2022-12-09
Published in Print: 2022-12-07

© 2022 Walter de Gruyter GmbH, Berlin/Boston

Artikel in diesem Heft

  1. Titelseiten
  2. Editorial: Die Organisation im Zoo der Digitalisierungsforschung
  3. Digitalisierte Organisation zwischen Systembildung und Hybridisierung
  4. Soziale Systeme? Systemtheorie digitaler Organisation
  5. Digitale Plattformen als soziale Systeme? Vorarbeiten zu einer allgemeinen Theorie
  6. Mensch-Algorithmus-Hybride als (Quasi-)Organisationen? Zu Verantwortung und Verantwortlichkeit von digitalen Kollektivakteuren
  7. Organisation – Entscheidung – Algorithmisierung
  8. Verantwortungsvolle Maschinen ohne Verantwortlichkeit? Datenintensive Algorithmen in Organisationen
  9. „Computer says no“? Konsequenzen der Algorithmisierung von Entscheidungsprozessen
  10. Vorhersagen und Entscheiden: Predictive Policing in Polizeiorganisationen
  11. Organisation und digitale Technologien. Predictive Policing im organisationalen Kontext
  12. Programmiertes Entscheiden: Begriffsgeschichtliche Anmerkungen
  13. Digitalisierung in Hochschule, Krankenhaus, Hedge-Fonds und Gericht
  14. Datafizierung und Technologiedefizit. Zum Einsatz von Daten und algorithmisch generierten Informationen in der Entscheidungsfindung an Hochschulen
  15. Post-NPM-Governance und Grenzobjekte. Zur organisationalen Funktion des Digitalisierungsdiskurses an Universitäten
  16. Misslingensbedingungen einer Plattformintegration. Rekonstruktion eines Software-Entwicklungsprozesses für das Universitätskrankenhaus
  17. Algorithmisches Investment. Zum Einsatz von Künstlicher Intelligenz und Big Data in Finanzorganisationen
  18. Algorithms, Efficiency and the Two Faces of Courts – A Case Study of the Brazilian Superior Court of Justice (STJ)
  19. Digitale Interaktion – Informalität – Automation
  20. Anwesenheit, Adressierbarkeit und Anschlussfähigkeit. Organisationsberatung unter der Bedingung mediatisierter Interaktion in Videokonferenzen
  21. Neue Grenzziehungen zwischen Formalität und Informalität? Die Auswirkungen der digitalen Transformation auf die Arbeit im Büro
  22. Nach 55 Jahren …: Recht und Automation in der öffentlichen Verwaltung
Heruntergeladen am 25.9.2025 von https://www.degruyterbrill.com/document/doi/10.1515/sosys-2021-0006/html
Button zum nach oben scrollen