Zusammenfassung
Der Beitrag stellt das Lehrkonzept der Veranstaltung „Ethik von Daten, Algorithmen und Künstlicher Intelligenz“ an der HAW Hamburg vor. Ausgehend von Lernzielen werden ethische Herausforderungen digitaler Transformation sowie Desiderate Angewandter Ethik diskutiert. Die Normative Ethik, insbesondere die Verantwortungsethik, bilden den Bezugsrahmen für die Analyse praxisnaher Fälle mit Methoden ethischer Kasuistik. Die Studierenden setzen sich dabei nicht nur theoretisch mit Fragen von Verantwortung auseinander, sondern erproben ihren eigenen Umgang mit Daten, Algorithmen und KI kontinuierlich selbst.
Abstract
This article presents the teaching concept of the course „Ethics of Data, Algorithms, and Artificial Intelligence“ at HAW Hamburg. Based on learning objectives, it addresses ethical challenges of digital transformation as well as desiderata of applied ethics. Normative ethics – particularly the ethics of responsibility – provides the framework for analyzing practical cases using methods of ethical casuistry. Students engage not only theoretically with questions of responsibility, but also continuously reflect on and test their own handling of data, algorithms, and AI throughout the course.
1 Einleitung
Daten, Algorithmen und Künstliche Intelligenz prägen, wie Entscheidungen getroffen, Ressourcen verteilt und Verhalten gesteuert werden. Sie beeinflussen Machtverhältnisse, können zu unklaren Verantwortungsstrukturen führen und soziale Ungleichheit verstärken. Digitale Transformationsprozesse haben erheblich Einfluss auf Gesellschaft und werfen nicht nur technische, sondern auch ethische Fragen auf. Ziel von Ethik ist es, einen Reflexionsrahmen zu schaffen, um zu begründeten Entscheidungen zu kommen – hier bei ethischen Fragen digitaler Transformation.
Der Beitrag stellt das Lehrkonzept „Ethik von Daten, Algorithmen und Künstlicher Intelligenz“ an der HAW Hamburg vor. Ausgangspunkt sind die Lernziele der Veranstaltung. Daran anschließend werden ethische Fragen digitaler Transformation skizziert und Desiderate Angewandter Ethik herausgearbeitet. Die Normative Ethik und insbesondere die Verantwortungsethik bilden den Reflexionsrahmen der Lehrveranstaltung, in der Studierende konkrete Anwendungsfälle bearbeiten, Verantwortung in Entscheidungssituationen diskutieren, ethische Urteilsbildung an Fallbeispielen erproben und ihren eigenen Umgang mit Daten, Algorithmen und KI reflektieren.
2 Ethik in der Hochschullehre
Die Lehrveranstaltung „Ethik von Daten, Algorithmen und Künstlicher Intelligenz“ ist im zweiten Semester im Studiengang „Digitale Transformation in der Informations- und Medienwirtschaft“ verortet. Der konsekutive Master qualifiziert für Digital Leadership und bereitet darauf vor, Management- und Führungsaufgaben bei Informationsdienstleistern, Medienunternehmen, Bibliotheken sowie weiteren Kultur- und Bildungseinrichtungen zu übernehmen. Zielgruppe sind nicht nur Absolventinnen und Absolventen der Bibliotheks- und informationswissenschaftlichen Studiengänge, sondern auch der Kommunikations- und Medienwissenschaften sowie verwandter Wissenschaftsdisziplinen.[1]
Die Ethikveranstaltung gehört zum Modul „Analyse digitaler Transformation“. Dies ist insofern relevant, weil die Studierenden sich bereits in der Lehrveranstaltung „Algorithmen und Gesellschaft“ grundlegend mit der technischen Gestaltung von Algorithmen auseinandergesetzt und Know-how erworben haben, Webanwendungen, IT-Installationen und Programmiercodes in Transformationsprozessen zu planen, zu steuern, umzusetzen und zu evaluieren. Die Lehre baut auf diesen Kenntnissen auf.
Die Lernziele orientieren sich – wie an Hochschulen üblich – an sogenannten Learning Outcomes, die anhand von Lernzieltaxonomien entwickelt werden. An der HAW Hamburg ist die „Was-Womit-Wozu-Struktur“ vorgegeben, die auch für diese Veranstaltung zugrunde gelegt wird:
Die Studierenden reflektieren individuelles und institutionelles Handeln vor dem Hintergrund ethischer Prinzipien, indem
sie die grundlegenden normativen Theorien kennen und sich kritisch mit Konzepten und Theorien der normativen und angewandten Ethik auf individueller, institutioneller und gesellschaftlicher Ebene zu Fragen digitaler Transformation auseinandersetzen,
Normen und Werte der Informationsethik sowie weiterer Bereichsethiken, z. B. Datenethik, Algorithmenethik, KI-Ethik, kennen und ethische Themen digitaler Transformation dahingehend identifizieren können,
Prinzipien ethischer Argumentation auf ethische Fragestellungen digitaler Transformation anwenden können,
Methoden nutzen, Konflikte und Dilemmata anhand ihrer Wertbezüge zu analysieren, zu diskutieren und begründete Handlungsalternativen zu entwickeln,
um verantwortlich Anspruchsgruppen gegenüber zu handeln, den sicheren Umgang mit Daten, Algorithmen und Künstlicher Intelligenz zu gewährleisten, den gerechten Zugang dazu zu ermöglichen, ethische Kompetenz in digitalen Transformationsprozessen zu fördern sowie unethische Praktiken zu erkennen und aufzudecken.
Basis der Lehre ist die Förderung von ethischer Reflexions- und Urteilsfähigkeit sowie die Entwicklung von moralischer Lösungskompetenz. Verfolgt wird kein literacy-orientierter Ansatz, der in diesem Studiengang im Modul „Digital Literacy“ berücksichtigt ist. Es geht auch nur am Rande um Recht. Ethik und Recht haben zwar in der Moral einen gemeinsamen Bezugspunkt, beruhen jedoch auf unterschiedlichen Perspektiven: Recht regelt durch Ge- und Verbote das, was legal ist; Ethik fragt nach der Legitimität konkreten Handelns und prüft, ob und wie eine Entscheidung moralisch begründbar ist. Ethik ist damit immer auch ein Instrument der Rechtskritik. Mit anderen Worten: Was legal ist, muss nicht legitim sein. Umgekehrt kann das auch gelten.[2]
3 Ethische Fragen digitaler Transformation
Die Lehre ist entlang der Kernbereiche Daten, Algorithmen und KI strukturiert, um die zentralen Herausforderungen der digitalen Transformation möglichst systematisch zu bearbeiten; vollständig gelingt das freilich nicht.[3]
3.1 Daten
Im Zentrum dieses Themenfelds stehen die Erhebung, Verarbeitung und Nutzung von Daten. Thematisiert werden unterschiedliche Datentypen, Fragen der Datenqualität und Datensouveränität sowie Risiken bei der Datenspeicherung oder Reidentifizierung. Diskutiert werden die ethischen, rechtlichen, ökonomischen und politischen Implikationen datenbasierter Systeme. Ein besonderer Fokus liegt auf personenbezogenen Daten sowie dem Schutz von Privatheit und informationeller Selbstbestimmung.
3.2 Algorithmen
Algorithmen verarbeiten Daten automatisiert und treffen auf dieser Grundlage Entscheidungen – etwa im Kreditwesen, bei der Personalwahl oder in der Strafverfolgung. Dabei greifen sie auf große, teils unstrukturierte Datenmengen zurück, deren Qualität, Vollständigkeit und Herkunft entscheidend, aber häufig undurchsichtig ist. Verzerrungen können sowohl aus unausgewogenen Trainingsdaten als auch aus problematischen Zielvariablen entstehen und frühere gesellschaftliche Ungleichheiten fortschreiben. Technische, soziale und sozio-technische Bias zu erkennen und zu minimieren, ist eine zentrale Herausforderung, um Diskriminierung bei der Entwicklung und Anwendung von Algorithmen zu vermeiden. Zusätzlich gewinnen Erklärbarkeit, Nachvollziehbarkeit und Transparenz an Bedeutung – nicht nur zur Kontrolle automatisierter Systeme, sondern auch zur Wahrung von Rechenschaftspflichten und den Grundrechten der Betroffenen.
3.3 Künstliche Intelligenz
Künstliche Intelligenz erweitert die algorithmischen Verfahren um selbstlernende und autonome Entscheidungsprozesse. Technologisch sind hier insbesondere Ungewissheit, Intransparenz (Black-Box-Problematik) und die Abwägung zwischen menschlicher Kontrolle und Autonomie (Human in/on/out of the Loop) zu nennen. Sicherheitsrisiken, Missbrauchspotenziale und die ökologischen Folgen des Ressourcenverbrauchs stellen weitere Herausforderungen dar. Gleichzeitig führt die wachsende Komplexität zu diffusen Verantwortungsstrukturen, was die Zuordnung von Verantwortung und Rechenschaft erschwert.
3.4 Gesellschaftliche Auswirkungen digitaler Transformationsprozesse
Gesellschaftliche Auswirkungen zeigen sich insbesondere im Strukturwandel der Öffentlichkeit, der eine grundlegende Veränderung der Kommunikations- und Informationsräume beschreibt, in denen sich Meinungsbildung und gesellschaftlicher Diskurs vollziehen. Dieser Wandel geht mit veränderten Kommunikations- und Rezeptionsweisen einher, die durch personalisierte Inhalte, Microtargeting und algorithmische Steuerung geprägt sind und die Verbreitung von Desinformation begünstigen können.
KI-gestützte Systeme verstärken diese Prozesse, indem sie neue Formen der Überwachung etablieren und autoritären sowie technokratischen Machtkonstellationen Vorschub leisten (z. B. Überwachungskapitalismus; Sozialkreditsystem in China). Diese Entwicklungen führen zu globalen Machtverschiebungen und stellen bestehende demokratische Ordnungen vor erhebliche Herausforderungen.
Die zunehmende Automatisierung von Arbeits- und Entscheidungsprozessen durch KI-Systeme führt auch zu Kompetenzverschiebungen. Dabei besteht das Risiko eines schleichenden Kompetenzverlusts (Deskilling), da menschliche Akteurinnen und Akteure zunehmend zentrale Aufgaben an automatisierte Systeme delegieren. Dies kann bestehende soziale Ungleichheiten verstärken, insbesondere wenn Zugänge zu Bildung, Technologie oder Qualifizierung ungleich verteilt sind (Digital Divide). Darüber hinaus wirken KI-gestützte Systeme nicht nur auf kognitive Prozesse, sondern beeinflussen Emotionen: Sie steuern Verhalten, verändern soziale Interaktionen und fördern so die Entstehung emotionaler Abhängigkeiten. Die Frage nach Vertrauen in Algorithmen und KI ist zentral.
Insgesamt zeigen diese Felder, wie eng technologische Entwicklungen, gesellschaftliche Dynamiken und ethische Fragestellungen miteinander verwoben sind. Da es nicht möglich ist, alle Fragen umfassend im Kurs zu bearbeiten, setzen die Teilnehmenden im Kurs selbstbestimmt Schwerpunkte und bringen aktuelle Themen ein, häufig solche, die sie persönlich beschäftigen. So wurde im letzten Kurs der Frage nachgegangen, warum eine Studentin einen schlechten Schufa-Score hat, obwohl sie ihre Rechnungen bezahlt, keine Schulden und noch nie einen Kredit aufgenommen hat.
4 Angewandte Ethik – praktische Anwendungsprobleme
Ethische Fragen digitaler Transformation sind auf Ebene der Angewandten Ethik angesiedelt. Die Angewandte Ethik beschäftigt sich mit der Lösung konkreter Probleme in Lebensbereichen, Fachgebieten und/oder Berufsfeldern, die verschiedenen Bereichsethiken zugeordnet werden (z. B. Technikethik, Medizinethik, Informationsethik). Ziel ist die Entwicklung von Orientierungswissen, Entscheidungshilfen und Handlungsoptionen für konkrete ethische Fragen.[4]
4.1 Bereichsethiken
An die Angewandte Ethik stellen sich im Argumentationsmodus der Ethik zentrale Anforderungen: Sie muss nicht nur ihren Gegenstand klar benennen, sondern auch das Verhältnis zwischen verschiedenen Bereichsethiken klären – inklusive ihrer thematischen Überschneidungen und Abgrenzungen. Darüber hinaus soll sie zur Weiterentwicklung normativer Ethik beitragen.[5]
Vor dem Hintergrund funktionaler Differenzierung der Gesellschaft spezifizieren sich seit den 1960er-Jahren Bereichsethiken aus, was laut Ropohl zu einem „Sektoralismus“ führt, der „die Einheit der Praktischen Philosophie zerstört“ und der „Komplexität menschlicher Praxis“ nicht mehr gerecht wird.[6] Nach Bendel sind Datenethik oder Algorithmenethik auch keine konsolidierten Bereichsethiken, sondern eher ein thematisches Arbeitsfeld innerhalb der Informationsethik.[7] Auch Floridi und Taddeo weisen auf dieses Desiderat hin, indem sie feststellen, dass ein möglicher Übergang von Informationsethik zu Datenethik „probably more semantic than conceptual“ sei.[8]
Ropohl plädiert für eine Rückführung der fragmentierten Bereichsethiken in eine transdisziplinär ausgerichtete Praktische Philosophie nach dem Paradigma einer „Synthetischen Philosophie“. Dies würde bedeuten, dass Angewandte Ethik die verschiedenen Perspektiven der Bereiche systematisch zusammenführt, um Orientierung in komplexen Zusammenhängen zu ermöglichen.[9] Ein Konzept gibt es dafür bisher nicht.
Für die Lehre besteht die Herausforderung daher darin, die Vielzahl spezialisierter Bereichsethiken mit ihren unterschiedlichen Zugängen aufeinander abzustimmen. Da diese Perspektiven kaum systematisch in der Lehre erfasst werden können, ist der Rückbezug auf Normative Ethiken essenziell, um Orientierung zu ermöglichen und ethische Urteilsfähigkeit anhand normativer Prinzipien und Verfahren zu stärken.
4.2 Berufsethiken
Zur Angewandten Ethik zählen auch Berufsethiken, die sich mit den zentralen Werten von Berufsgruppen und Tätigkeitsfeldern befassen. Sie transferieren die Theorie des guten Lebens auf berufliche Tätigkeiten und streben die individuelle Selbstbindung an Werte an. Ziel ist es, identitätsstiftend in ein Berufs- bzw. Themenfeld hineinzuwirken und Orientierung für ethische Entscheidungen zu geben.[10]Im Berufsfeld Bibliothek und Information kommen berufsethische Standards in Ethikkodizes wie etwa dem IFLA-„Code of Ethics for Librarians and other Information Workers“[11], den „Core Values of Librarianship“[12] der American Library Association (ALA) oder den „Ethische[n] Grundsätzen von Bibliothek & Information Deutschland (BID)“[13] zum Ausdruck. Adressiert werden hier vor allem ethische Implikationen im Umgang mit (personenbezogenen) Daten. Eine explizite Werthaltung zum Umgang mit algorithmischen Systemen und KI zeichnet sich darin bisher nicht ab.[14]
Leitlinien zu ethischen Anforderungen an Daten, Algorithmen und Künstliche Intelligenz werden regelmäßig von wissenschaftlichen und politischen Akteurinnen und Akteuren sowie von Verbänden veröffentlicht. Dazu zählen unter anderem der Deutsche Ethikrat, die Europäische Kommission (EU),[15] Verbände und Fachgesellschaften, wie die Gesellschaft für Informatik (GI).[16] Diese Dokumente konkretisieren ethische Prinzipien und sollen dazu beitragen, digitale Technologien verantwortungsbewusst zu gestalten.
In ethischen Leitlinien ist der Bezug zu den Menschenrechten elementar. Zu den zentralen Werten im Hinblick auf Daten, Algorithmen und KI gehören in westlichen Traditionen der Schutz der Menschenwürde, Freiheit, der Gleichbehandlungsgrundsatz, die Sicherstellung von Transparenz und Nachvollziehbarkeit sowie der Schutz von Privatheit und informationeller Selbstbestimmung. Auch Wahrheit ist eine moralische Kategorie, die vor allem in ihren Gegenwerten Manipulation und Desinformation bestimmt wird. Hinzu kommt die klare Zuweisung von Verantwortung und von Rechenschaftspflichten, die Gewährleistung von Sicherheit und Robustheit technischer Systeme und schließlich die generelle Ausrichtung auf Gemeinwohl in der Dualität zu kommerziellen Interessen.
Ein grundlegendes Problem dieser Ansätze besteht darin, dass diese Werte zwar auf normativer Ebene benannt werden und darin eine gewisse Orientierung schaffen, bislang jedoch weitgehend ungeklärt ist, wie sich etwa Fairness oder Autonomie technisch so operationalisieren lassen, dass sie in der konkreten Gestaltung und Anwendung realisiert werden. Um ein konkretes Beispiel zu nennen: Zwar gibt es mannigfaltig theoretische Konzepte, wie ein menschenzentriertes Design von KI-Anwendungen fundiert sein sollte, praktische Anwendungen, wie die zugrundeliegenden Werte von Freiheit, Gleichheit und Gemeinwohl konkret umgesetzt werden, gibt es hingegen kaum.
Vor diesem Hintergrund der Unschärfen Angewandter Ethik orientiert sich die Ethiklehre an der Normativen Ethik: Im Mittelpunkt steht die Auseinandersetzung mit ethischen Prinzipien und deren systematischer Anwendung auf konkrete Entscheidungssituationen. Ethische Standards und Leitlinien werden dabei stets miteinbezogen, aber auch kritisch hinterfragt.
5 Das Gute und das Richtige – Normative Ethik als Reflexionsrahmen
Ziel der Normativen Ethik ist es, Werturteile sowie Ge- und Verbote systematisch zu begründen. Konzeptionen Normativer Ethik lassen sich anhand des höchsten Prinzips unterscheiden. In dieses Prinzip – auch Maxime, Gebot oder Moralprinzip genannt – ordnet sich die Argumentation ein. Nach der Klassifikation von Charlie Dunbar (C. D.) Broad werden zwei Ethiktraditionen unterschieden: die teleologische und deontologische Ethik (s. Abbildung 1).[17]
5.1 Das Gute – Handlungsfolgen
Teleologische Ethiken bewerten Handlungen anhand ihrer Folgen, wobei das Gute als oberste Maxime gilt. In der Teleologie zeigt sich das Gute am Zweck. Eine Variante der Teleologie ist der Utilitarismus, der das Gute im Nutzen verortet.[18] Zu den Hauptvertretern der Teleologie zählen Aristoteles, der das Handeln am Ziel des „guten Lebens“ ausrichtete, sowie Jeremy Bentham und John Stuart Mill, die als Begründer des Utilitarismus das größtmögliche Glück für die größtmögliche Zahl als oberstes Prinzip formulierten. Da die Teleologie die moralische Bewertung an den Folgen einer Handlung festmacht, werden diese Ethiken als konsequentialistisch bezeichnet.[19]
Warum ist das für die Ethiklehre relevant? Gerade in der Technikfolgenabschätzung und in ethischen Debatten rund um Daten, Algorithmen und KI ist dieser konsequentialistische Ansatz zentral. Neue technologische Entwicklungen werden vor allem danach beurteilt, wie sie zum Guten beitragen und welchen Schaden sie verursachen können (Stichwort Technikfolgenabschätzung). Autonomes Fahren, KI-gestützte Diagnoseverfahren in der Medizin oder algorithmisch gesteuerte soziale Medien werden auch danach bewertet, inwiefern sie einen Zweck erfüllen und einen Nutzen stiften – etwa durch erhöhte Sicherheit, bessere medizinische Diagnoseverfahren oder verbesserten Informationszugang. Ebenso relevant ist aber auch, die Risiken und gesellschaftliche Auswirkungen abzuschätzen, die damit verbunden sind.
5.2 Das Richtige – Moralische Werte
Deontologische Ethiken orientieren sich an moralischen Werten, unabhängig von den Folgen. Ihre Maxime ist das Erforderliche bzw. das Richtige. Im Gegensatz zur Teleologie steht die Motivation des Handelnden im Fokus. Die Deontologie ist ein „Sammelbecken höchst disparater Theorien“,[20] deren gemeinsame Grundlage jedoch in universell anerkannten moralischen Werten liegt, wie sie beispielsweise in den Menschenrechten zum Ausdruck kommt. Hauptvertreter der Deontologie ist die Moraltheorie Immanuel Kants, der die Würde des Menschen und den Kategorischen Imperativ ins Zentrum stellte. Daneben zählen auch John Rawls mit seiner Theorie der Gerechtigkeit, die Diskursethik von Karl-Otto Apel und Jürgen Habermas sowie der Capability Approach von Amartya Sen und Martha C. Nussbaum zur Deontologie.[21]
Warum ist das für die Ethik-Lehre relevant? Studierende sollen Grundrechte wie Freiheit, Gleichheit oder Meinungs- und Informationsfreiheit so verinnerlichen, dass diese Werte eine sichere Orientierung bieten, wenn sie ethische Begründungen erarbeiten.

Maximen Normativer Ethik (Quelle: Frauke Schade)

Reflexionsrahmen Normativer Ethik (Quelle: Frauke Schade)
Logisch ist, dass sich aus den verschiedenen Maximen unterschiedliche Handlungsoptionen ableiten lassen. Genau dieser ethische Dissens spannt dann den Reflexionsrahmen auf, um zu logisch begründbaren Einzelfallentscheidungen zu kommen (s. Abbildung 2).
5.3 Verantwortung
Etymologisch bedeutet Verantwortung, dass es immer jemanden und/oder etwas geben muss, der oder das antwortet.[22] Gerade bei der Auseinandersetzung mit ethischen Fragen digitaler Transformation ist das relevant.
Die Verantwortungsethik gehört ebenfalls in die Normative Ethik, wird jedoch als Ethik 2. Linie bezeichnet, weil sie auf den Prinzipien von Deontologie und Teleologie beruht und als struktur- und kontextualistisches Reflexionsprinzip besonders gut geeignet ist, komplexe Handlungszusammenhänge und deren Folgen in den Blick zu nehmen.[23]
Verantwortung ist zunächst ein personales Konzept. Die Übernahme von Verantwortung ist voraussetzungsreich: Erstens muss die verantwortliche Person über die notwendige Handlungsfreiheit verfügen. Das heißt, sie muss befähigt sein, selbstbestimmte Entscheidungen innerhalb der gegebenen Rahmenbedingungen zu treffen und dabei in der Lage sein, begründete Abwägungen zwischen Handlungsalternativen vorzunehmen. Zweitens ist die Möglichkeit der Kontrolle und die Einflussnahme auf Handlungen und Handlungsfolgen relevant (guidance control). Drittens bedarf es einer Handlungsabsicht, die auch das Abwägen von beabsichtigten sowie unbeabsichtigten Folgen umfasst. Viertens ist neben Handlungs- auch Kontextwissen notwendig, um den Gesamtzusammenhang einschätzen zu können. Schließlich ist Normenbewusstsein unverzichtbar, das heißt Kenntnisse über geltende Gesetze, ethische Prinzipien und soziale Normen. Nur bei Erfüllung dieser Voraussetzungen kann Verantwortung im ethischen Sinne wirksam übernommen und getragen werden.[24] Im Verantwortungsdiskurs ist dabei äußerst strittig, ob Verantwortung in höherstufigen Handlungsprozessen, z. B. in Institutionen oder soziotechnischen Systemen, überhaupt zugeschrieben werden kann.[25] Die sogenannte Multiakteursverantwortung reflektiert dazu einen Verantwortungstyp, bei dem Verantwortung arbeitsteilig zwischen verschiedenen Akteuren und Akteurinnen verteilt und bestenfalls durch Rechenschaftsstrukturen dokumentiert wird, in denen spezifische Rollen und Handlungsspielräume definiert werden.[26]
Bleiben Verantwortungsbereiche jedoch unklar, entstehen Verantwortungslücken; wird Verantwortung abgewehrt entsteht Verantwortungsdiffusion. Während Verantwortungslücken strukturelle Unklarheiten bei der Zuschreibung moralischer und/oder rechtlicher Verantwortung bezeichnen, beschreibt Verantwortungsdiffusion das Phänomen sinkender individueller Verantwortungsbereitschaft innerhalb von kollektiven Prozessen.[27]
Der Deutsche Ethikrat verweist darauf, dass solche Unschärfen der Verantwortungszuschreibung insbesondere in soziotechnischen Systemen auftreten, in denen Mensch und Technologie eng verzahnt sind. Um dem vorzubeugen, fordert der Rat definierte Verantwortungsstrukturen, die sowohl individuelle als auch institutionelle Zuständigkeiten abbilden. Zugleich wird betont, dass Verantwortung grundsätzlich beim Menschen verbleibt, da KI-Systemen zentrale Voraussetzungen wie Autonomie, Intentionalität und normatives Urteilsvermögen fehlen.[28]
Dieses menschenzentrierte Verständnis von Verantwortung wird durch die zunehmende Autonomie und Komplexität von KI-Systemen herausgefordert. Namenhafte Wissenschaftler und Wissenschaftlerinnen warnen in dem viel beachteten Science-Paper „Managing extreme AI risks amid rapid progress“, dass KI zeitnah in der Lage sein könnte, eigenständig Verantwortungsentscheidungen mit weitreichenden Folgen zu treffen:

Reflexionsaufgabe Mensch Maschine und Verantwortung
Without sufficient caution, we may irreversibly lose control of autonomous AI systems, rendering human intervention ineffective. Large-scale cybercrime, social manipulation, and other harms could escalate rapidly. This unchecked AI advancement could culminate in a large-scale loss of life and the biosphere, and the marginalization or extinction of humanity.[29]
Bengio et al. plädieren daher für eine Erweiterung klassischer Verantwortungskonzepte durch technische, institutionelle und regulatorische Mechanismen, etwa verpflichtende Sicherheitsnachweise, externe Audits oder adaptive Governance-Strukturen.[30]
Vor diesem Hintergrund bietet die Analyse der ikonischen Szene aus dem Science-Fiction-Klassiker „2001 – Odyssee im Weltraum“ Studierenden einen Zugang, um zentrale Voraussetzungen von Verantwortung im Kontext von Mensch-Maschine-Interaktionen zu reflektieren. In der Dystopie thematisiert Stanley Kubrick bereits 1968 das Verhältnis von Mensch und Maschine und lotet Grenzen von Verantwortung aus. In der Szene verweigert der Bordcomputer HAL dem Astronauten Dave den Wiedereintritt zum Raumschiff mit den Worten: „I’m sorry, Dave. I’m afraid I can’t do that.“ – ein Schlüsselmoment, der aufzeigt, was passiert, wenn KI beginnt, autonom und emotional zu handeln und der Mensch die Kontrolle verliert (s. Abbildung 3).
Zur Auseinandersetzung mit Quellen steht den Studierenden der ChatBot „Mia Mindful“ zur Verfügung. Der grundlegende Prompt wurde von der Bildungswissenschaftlerin Katharina Opper konzipiert und von der Autorin für die Ethiklehre adaptiert und weiterentwickelt. Zudem sind dem Chatbot Texte der Lehrveranstaltung sowie weitere Fachliteratur hinterlegt. Der ChatBot ist an der Methode des Sokratischen Gesprächs orientiert, die durch gezieltes Fragen und Hinterfragen zu eigenständigem Nachdenken und tieferem Textverständnis anregt.[31] Der ChatBot wird vor dem Hintergrund eingesetzt, dass es für Studierende schwieriger wird, sich konzentriert mit Texten auseinanderzusetzen. Er ist eine Reaktion auf das zunehmende Risiko eines Kompetenzverlustes (Deskilling) durch generative Sprachmodelle und auf kürzere Aufmerksamkeitsspannen in einem überladenen Informationsumfeld.
Da KI aktuell omnipräsent in den Medien ist, werden zudem Dokumentationen, Reportagen, Diskussionsrunden sowie Podcasts in die Lehre miteinbezogen. Dazu gehören einschlägige Beiträge aus Formaten wie „Sternstunde Philosophie“[32] des Schweizer Fernsehens (SRF), „Essay und Diskurs“[33] von Deutschlandfunk (DLF) oder „Aus Politik und Zeitgeschichte“[34] der Bundeszentrale für politische Bildung (bpb). Die Arte-Dokumentation „Algorithmen – Die unberechenbare Gefahr“[35] war ein roter Faden in diesem Jahr, an dem sich immer wieder hitzige Debatten entzünden ließen, z. B. was unter ausgewogenen Trainingsdaten zu verstehen ist.
6 Dilemmata und Fallanalysen
Dilemmata und Fallanalysen sind für die Ethiklehre von zentraler Bedeutung, da sie es ermöglichen, ethische Entscheidungssituationen praxisnah und kontextsensitiv zu reflektieren. Ein Dilemma beschreibt eine Zwickmühle, bei der zwischen zwei Handlungsalternativen entschieden werden muss, ohne dass es eine zufriedenstellende Lösung gibt, weil der zugrundeliegende Wertkonflikt nicht aufgelöst werden kann.[36]
Die Fälle sind aus der Praxis entlehnt oder werden auf der Grundlage von aktuellen Studien und Fachliteratur im Bereich Daten, Algorithmen und Künstliche Intelligenz entwickelt. Fälle kommen zudem von den sogenannten „Gewissensbits“[37] der Deutschen Gesellschaft für Informatik (GI) oder der Gesellschaft für Freiheitsrechte (GFF).[38]
Von den Studierenden werden sie dann mit Instrumenten ethischer Kasuistik bearbeitet. Diese sollen ermöglichen, ethische Implikationen eines Dilemmas zu identifizieren und kontextsensitiv abzuwägen. Dazu gehören insbesondere Verantwortungsanalysen und die Anwendung der Prioritätenregeln.[39]
6.1 Verantwortungsanalysen
Verantwortung ist ein Relationsbegriff, der zunächst inhaltsleer ist. Verantwortung wird erst durch seine Relationen konkret zugeschrieben. Diese können anhand von sechs Fragen erörtert werden:[40]
WER? Fragt nach den Verantwortungsträger:innen: Individuen, Kollektive, Kooperationen, Systeme usw.
WOFÜR? Fragt nach dem Verantwortungsobjekt: Gegenstände, Handlungen, Ereignisse usw.
WEM GEGENÜBER? Fragt nach den Verantwortungsadressat:innen: Lebenwesen, Personen, Gruppen usw.
WARUM? Fragt nach den Kriterien zur Bewertung von Verantwortung: Maximen, Normen, Werte, Gesetze, Regeln usw.
WOVOR? Fragt nach der Verantwortungsinstanz: Sich selbst gegenüber, Gericht, Öffentlichkeit, Ethikkommission usw.
WANN? Fragt nach dem Zeitpunkt: Ex-Post-Verantwortung, Ex-Ante-Verantwortung
Durch die Bestimmung der Relationen können Verantwortungsanalysen durchgeführt werden, die dabei unterstützen, komplexe Handlungs- und Entscheidungssituationen zu reflektieren. Eine typische Fallanalyse wird am Beispiel des KI-Frühwarnsystems TREWS durchgeführt (s. Abbildung 4).
Die Studierenden übernehmen in der Fallanalyse verschiedene Rollen und diskutieren aus diesen Perspektiven. Dabei wird schnell deutlich, wie die Verantwortung von einer Seite zur anderen geschoben wird. So kann unmittelbar erlebt werden, wie Verantwortungsdiffusion entsteht und wie schwierig es ist, in solchen Situationen klare Zuständigkeiten festzulegen.

Fallanalyse KI-Frühwarnsystem TREWS
Verantwortungsanalysen können auf drei Ebenen ansetzen: der individuellen, der institutionellen und der Ebene der Rahmenordnung, die in der Regel eng miteinander verwoben sind. So lässt sich systematisch klären, wer in welchem Bereich und auf welcher Ebene Verantwortung trägt – und wo möglicherweise Lücken oder Unklarheiten bestehen. Auf individueller Ebene geht es darum, was einzelne Akteure und Akteurinnen wissen, entscheiden und verantworten können. Auf institutioneller Ebene tragen Organisationen, Unternehmen oder Behörden Verantwortung – etwa durch klare Zuständigkeiten und Abläufe. Auf der Ebene der Rahmenordnung steht die Frage im Mittelpunkt, ob die gesetzlichen, technischen und gesellschaftlichen Rahmenbedingungen verantwortliches Handeln überhaupt ermöglichen.
6.2 Prioritätenregeln
Die Prioritätenregeln beruhen auf den Arbeiten von Patricia Werhane, Hans Lenk und Ludger Heidbrink.[41] Sie wurden von der Autorin dieses Beitrages überarbeitet und u. a. auf den sechsstelligen Relationsbegriff angepasst, der sich in der Lehre als sinnvoll erwiesen hat. Die Regeln sind ein gutes Instrument, ethische Entscheidungen kontextsensitiv zu bearbeiten und konkrete Lösungen zu entwickeln:
Kategorisch moralische Werte (Menschenrechte) vor anderen Werten.
Kategorische Verantwortung (basierend auf Menschenrechten) hat Vorrang vor Aufgaben- und Rollenverantwortung.
Bei kollidierenden Werten Suche nach Kompromissen zwischen gleichwertigen Werten oder gleicher Berücksichtigung betroffener Personen.
Abwägung des geringsten Schadens für Betroffene.
Fairness der Lastenverteilung bei Kompromisslösungen.
Zeitlich direkte moralische Verantwortung hat in der Regel Vorrang vor indirekter Fernverantwortung (bei gleichen Lasten).
Öffentliches Wohl geht individuellen, nicht moralischen Interessen voran.
An den Prioritätenregeln lässt sich deutlich darstellen, dass es sich bei Verantwortung um eine Ethik 2. Linie handelt. Während die ersten drei Regeln wertbasierte Entscheidungen zum Ausdruck bringen (Deontologie), sind die Regeln vier bis sieben auf den Kontext und auf die Handlungsfolgen ausgerichtet (Teleologie).
Auch, die Prioritätenregeln werden in Fallanalysen eingesetzt und ihre Anwendung eingeübt (s. Abbildung 5). In der Fallstudie zu FastHire AI setzen sich die Studierenden mit den Chancen und Risiken eines KI-gestützten Bewerbungssystems auseinander. Sie lernen, Vorteile wie Effizienz und Objektivierung abzuwägen gegen mögliche ethische Probleme, etwa Diskriminierung, Intransparenz oder Eingriffe in die Privatsphäre. Mit den Prioritätenregeln prüfen die Studierenden, ob durch das System Grundrechte gefährdet werden, wie Schaden minimiert und Fairness gewährleistet werden kann. So erarbeiten sie eine Entscheidung und machen eine wichtige Lernerfahrung: Ethische Entscheidungen sind häufig ein Kompromiss – hier zwischen ökonomischer und ethischer Rationalität.
7 Urteilskraft durch Selbstreflexion
Künstliche Intelligenz, insbesondere generative Sprachmodelle, sind nicht nur Thema der Lehre, sondern werden auch praktisch eingesetzt. Die Studierenden erproben im Selbstexperiment den Umgang mit KI, um deren Chancen und Grenzen im Kontext moralischer Entscheidungen auszuloten. Dabei steht die Reflexion über eigene Unsicherheiten, Ambiguitäten und mögliche Vertrauensprobleme im Mittelpunkt. Dies ist auch Gegenstand der Prüfungsleistung.
Im Vorfeld der Prüfungsleistung setzen sich die Studierenden mit dem Video „Gaslighting ChatGPT“[42] des britischen Philosophen Alex O’Connor auseinander. Anhand klassischer moralphilosophischer Dilemmata bringt O’Connor in diesem Video ChatGPT dazu, sich wiederholt auf eigene frühere Aussagen zu beziehen und darin heillos zu verstricken. Eine moralische Entscheidungsfindung wird durch die Fragen und Antworten verunmöglicht. Die Videosequenz soll den Studierenden einen Hinweis darauf geben, dass Sprachmodelle keine moralischen logisch begründbaren Urteile fällen, sondern statistisch wahrscheinliche Textfortsetzungen erzeugen, die insgesamt zu inkonsistenten moralischen Aussagen führen können, zumindest dann, wenn sie hinterfragt und Personalisierungsmechanismen enttarnt werden.
Themen der Prüfungsleistung sind moralische Fragen digitaler Transformation wie im Zusammenhang mit Assistenzsystemen in der Pflege, automatisierten Waffensystemen, Dual-Use-Problematiken an Hochschulen, Griefbots in persönlicher Trauer,[43] Massendaten im Gesundheitswesen, Microtargeting im E-Commerce,[44] Predictive Policing,[45] Schattenbibliotheken,[46] Scoring-Verfahren im Versicherungswesen,[47] Talent Analytics in Bewerbungsverfahren[48] oder Überwachung durch Bildungstechnologien.[49] Für ihre Hausarbeit wählen die Studierenden eines der genannten Themen aus. Sie stellen das Thema anhand einschlägiger Fachliteratur vor, grenzen es ein und untersuchen die ethischen Implikationen.

Fallanalyse Fast Hire
Darauf aufbauend ist es ihre Aufgabe, ein ethisches Dilemma zu dem Thema zu konstruieren und dazu von einem generativen Sprachmodell Lösungsvorschläge generieren zu lassen. Dieser Prozess wird dokumentiert; die Antworten werden im Hinblick auf normative Prinzipien, Werte, Verantwortungskonstellationen und Lösungsvorschläge kritisch analysiert. Anschließend entwickeln die Studierenden einen eigenständigen Lösungsvorschlag und nutzen die Prioritätenregeln sowie das Zuschreibungskonzept für Verantwortung.
Die Prüfungsleistung schließt mit einer persönlichen Reflexion über Ambiguität, Unsicherheit und die Chancen und Grenzen von KI im Umgang mit moralischen Fragen. Das Fazit umfasst eine kritische Einschätzung zur ethischen Relevanz des Themas, zum professionellen individuellen Umgang damit sowie zum Verhältnis von Mensch und Maschine bei moralischen Fragen.
8 Fazit
Die Lehrveranstaltung verdeutlicht, dass ethische Reflexion eine zentrale Voraussetzung für verantwortungsbewusstes Handeln in digitalen Transformationsprozessen ist. Die Verbindung von theoretischen Grundlagen, Fallanalysen und praktischer ethischer Instrumente stärkt die Urteilsfähigkeit der Studierenden und befähigt sie, ethische Herausforderungen datenbasierter Systeme und KI kritisch einzuordnen. Gleichzeitig zeigt sich der Bedarf, Bereichsethiken stärker zu verzahnen und normative Prinzipien konkret in Gestaltung und Regulierung technischer Systeme miteinzubeziehen.
© 2025 bei den Autoren, publiziert von Walter de Gruyter GmbH, Berlin/Boston
Dieses Werk ist lizenziert unter der Creative Commons Namensnennung 4.0 International Lizenz.
Artikel in diesem Heft
- Titelseiten
- Editorial
- Themenschwerpunkt KI
- Künstliche Intelligenz in Bibliotheken – anwenden und gestalten
- pica – Open-Source-Tool zur Analyse und Transformation bibliografischer Metadaten
- KI trifft Katalogisierung. Tests zur automatisierten Erstellung von formalen Metadaten an der Österreichischen Nationalbibliothek
- Training von KI-Sprachmodellen: Was das geltende Urheberrecht & Co. erlauben
- Von der Entdeckung zur Beschreibung: Generative KI in wissenschaftlichen Bibliotheken
- Menschen, Maschinen und Macht
- Fachbeiträge
- #bibaufmöbeln: Eine Kampagne zur Neugestaltung und Modernisierung der Zentralen Hochschulbibliothek Lübeck
- Elicitation Of Requirements and Development of Production Workflows for Accessible Diamond Open Access Publications
- Adopting EOSC on the ground – Integrating (European) Research infrastructure into national institutions
- Haager Konvention, KRITIS und Konzeption Zivile Verteidigung
- Tagungsbericht
- #BibliothekenEntschlossenDemokratisch
- Zwei Diamanten sind besser als einer
- Nachrichten
- Nachrichten
- Produktinformationen
- Produktinformationen
- ABI Technik-Frage
- Was können Bibliotheken und Archive auch ohne großen Aufwand für die Verbesserung ihrer IT-Sicherheit tun?
- Rezensionen
- Blumesberger, Susanne, Igor Eberhard, Elisabeth Hafeneder, Gertraud Novotny und Elisabet Torggler (Hg.): Handbuch Repositorienmanagement. Grundlagen – Anwendungsfelder – Praxisbeispiele. Graz: Graz University Library Publishing 2024. – 595 S. – ISBN (kartoniert) 978-3-99165-932-7, eISBN 978-3-903374-23-2.<fnote> PDF (CC BY 4.0) herunterzuladen unter: https://library-publishing.uni-graz.at/index.php/lp/catalog/book/60. Zuletzt geprüft am 20.09.2025.</fnote> 40,00 €
- Kuttner, Sven, Anna Lingnau, Johannes Mangei (Hg.): Medium Buch 4 (2022). Sammlungen digital denken. Medium Buch – Wolfenbütteler interdisziplinäre Forschungen 4. – IV, 188 Seiten, 42 Abb., 4 Diagramme, 5 Tabellen – ISBN 978-3-447-18326-0. 48,00 €
- New horizons in artificial intelligence in libraries. Hrsg. von Edmund Balnaves, Leda Bultrini, Andrew Cox und Raymond Uzwyshyn. IFLA-Publications 185. Berlin/Boston: de Gruyter Saur, 2025. – ISBN 978-3-11133-643-5 (eBook),<fnote> Open Access herunterzuladen unter: https://www.degruyterbrill.com/document/doi/10.1515/9783111336435/html#bibliographicData. Zuletzt geprüft am 20.09.2025.</fnote> ISBN 978-3-11133-571-1 (gebunden). Frontmatter 9 S., Inhalt 384 S., 15 Abb., 31 farbige Abb. – 89,95 €
- Veranstaltungskalender
- Veranstaltungskalender
Artikel in diesem Heft
- Titelseiten
- Editorial
- Themenschwerpunkt KI
- Künstliche Intelligenz in Bibliotheken – anwenden und gestalten
- pica – Open-Source-Tool zur Analyse und Transformation bibliografischer Metadaten
- KI trifft Katalogisierung. Tests zur automatisierten Erstellung von formalen Metadaten an der Österreichischen Nationalbibliothek
- Training von KI-Sprachmodellen: Was das geltende Urheberrecht & Co. erlauben
- Von der Entdeckung zur Beschreibung: Generative KI in wissenschaftlichen Bibliotheken
- Menschen, Maschinen und Macht
- Fachbeiträge
- #bibaufmöbeln: Eine Kampagne zur Neugestaltung und Modernisierung der Zentralen Hochschulbibliothek Lübeck
- Elicitation Of Requirements and Development of Production Workflows for Accessible Diamond Open Access Publications
- Adopting EOSC on the ground – Integrating (European) Research infrastructure into national institutions
- Haager Konvention, KRITIS und Konzeption Zivile Verteidigung
- Tagungsbericht
- #BibliothekenEntschlossenDemokratisch
- Zwei Diamanten sind besser als einer
- Nachrichten
- Nachrichten
- Produktinformationen
- Produktinformationen
- ABI Technik-Frage
- Was können Bibliotheken und Archive auch ohne großen Aufwand für die Verbesserung ihrer IT-Sicherheit tun?
- Rezensionen
- Blumesberger, Susanne, Igor Eberhard, Elisabeth Hafeneder, Gertraud Novotny und Elisabet Torggler (Hg.): Handbuch Repositorienmanagement. Grundlagen – Anwendungsfelder – Praxisbeispiele. Graz: Graz University Library Publishing 2024. – 595 S. – ISBN (kartoniert) 978-3-99165-932-7, eISBN 978-3-903374-23-2.<fnote> PDF (CC BY 4.0) herunterzuladen unter: https://library-publishing.uni-graz.at/index.php/lp/catalog/book/60. Zuletzt geprüft am 20.09.2025.</fnote> 40,00 €
- Kuttner, Sven, Anna Lingnau, Johannes Mangei (Hg.): Medium Buch 4 (2022). Sammlungen digital denken. Medium Buch – Wolfenbütteler interdisziplinäre Forschungen 4. – IV, 188 Seiten, 42 Abb., 4 Diagramme, 5 Tabellen – ISBN 978-3-447-18326-0. 48,00 €
- New horizons in artificial intelligence in libraries. Hrsg. von Edmund Balnaves, Leda Bultrini, Andrew Cox und Raymond Uzwyshyn. IFLA-Publications 185. Berlin/Boston: de Gruyter Saur, 2025. – ISBN 978-3-11133-643-5 (eBook),<fnote> Open Access herunterzuladen unter: https://www.degruyterbrill.com/document/doi/10.1515/9783111336435/html#bibliographicData. Zuletzt geprüft am 20.09.2025.</fnote> ISBN 978-3-11133-571-1 (gebunden). Frontmatter 9 S., Inhalt 384 S., 15 Abb., 31 farbige Abb. – 89,95 €
- Veranstaltungskalender
- Veranstaltungskalender