Zusammenfassung
KI / Lernende Systeme wirken sich in erheblichem Maß auf die strafrechtliche Schuld aus und verändern die grundlegende Konzeption individueller Verantwortlichkeit. Unabhängig von den dogmatischen Details muss das Strafrecht sich auf diese Veränderungen einstellen, d. h. die Vorstellung individueller strafrechtlicher Verantwortung in diesen Lebensbereichen ist zu hinterfragen und neu zu justieren. Das betrifft die Schuld ebenso wie die Zurechenbarkeit, Nachweisfragen ebenso wie das Strafmaß. Auf diese Entwicklungen gibt es nicht die eine richtige Antwort, sondern verschiedene Antworten je nach konkretem Problemkontext. So ist eine Reduktion strafrechtlicher Verantwortung für bestimmte Aspekte nur ein erster Schritt bei der Lösung der Problematik, da dadurch das gesellschaftliche Bedürfnis nach Verantwortungszuschreibung, Absicherung gegen bestimmte gefährliche Technologien bzw. Technologieeinsätze und Schadensausgleich unbeantwortet bleibt. Hier werden in Zukunft weitergehende Lösungen gesucht werden müssen, die die mit KI / Lernenden Systemen einhergehende Verantwortungsdiffusion nachhaltig einhegen. Eine weitere von vielen wichtigen Antworten, die insbesondere für die am Entwicklungsprozess und den konkreten Entscheidungen beteiligten Menschen wichtig ist, ist der Blick auf ihre individuelle Verantwortung. Insofern ist sicherzustellen, dass die Beteiligten nur rechtlich zur Verantwortung gezogen werden sollten, wenn sie bedeutsame Kontrolle über die konkrete Handlung bzw. die kollaborativ getroffene Entscheidung hatten.
Anmerkung
Das diesem Beitrag zugrunde liegende Vorhaben vALID wurde mit Mitteln des Bundesministerium für Bildung und Forschung unter dem Förderkennzeichen 01GP1903A gefördert. Die Verantwortung für den Inhalt dieser Veröffentlichung liegt bei der Autorin.
Literaturverzeichnis
Article36 (2016). Key elements of meaningful human control. Article36. abrufbar unter https://article36.org/wp-content/uploads/2016/04/MHC-2016-FINAL.pdf. [Stand 22.09.2022].Search in Google Scholar
Bahner J. E. (2008). Übersteigertes Vertrauen in Automation: Der Einfluss von Fehlererfahrungen auf Complacency und Automation Bias [Doctoral dissertation]. Berlin: Technische Universität Berlin – Institut für Psychologie und Arbeitswissenschaft. http://dx.doi.org/10.14279/depositonce-1990.Search in Google Scholar
Beck S. (2015). Google-Cars, Software-Agents, Autonome Waffensysteme − neue Herausforderungen für das Strafrecht?. In Beck S., Meier B-D., Momsen C. (Hrsg.), Cybercrime und Cyberinvestigations – Neue Herausforderungen der Digitalisierung für Strafrecht, Strafprozessrecht und Kriminologie, Robotik und Recht. Band 6. Baden-Baden: Nomos. doi.org/10.5771/9783845266121.10.5771/9783845266121-9Search in Google Scholar
Beck S. (2017). Digitalisierung und Schuld (S. 289–302). In Fischer T., Hoven E. (Hrsg.) Schuld, Baden-Badener Strafrechtsgespräche. Band 3. Baden-Baden: Nomos. doi.org/10.5771/9783845287027.10.5771/9783845287027-289Search in Google Scholar
Beck S. (2020). Künstliche Intelligenz – ethische und rechtliche Herausforderungen. In Mainzer K. (Hrsg.), Philosophisches Handbuch Künstliche Intelligenz, https://doi.org/10.1007/978-3-658-23715-8_29-1 [Epub ahead of print].10.1007/978-3-658-23715-8_29-1Search in Google Scholar
Beck S. (2020a) § 7 Strafrechtliche Implikationen von KI und Robotik (S. 243–307). In Ebers M., Heinze C., Krügel T, Steinrötter B. (Hrsg.), Künstliche Intelligenz und Robotik, München: C.H.Beck.Search in Google Scholar
Beck S., Faber M. (2022). Kapitel 3.8.: Rechtlicher Rahmen des Einsatzes von KI in der Medizin (S. 267–300). In Buck-Heeb P., Oppermann B. (Hrsg.), Automatisierte Systeme, München: C.H.Beck.Search in Google Scholar
Bilski N., Schmid T. (2019). Verantwortungsfindung beim Einsatz maschinell lernender Systeme. Neue Juristische Online-Zeitschrift (NJOZ), 19 (20), 657–661.Search in Google Scholar
Bolsinger E. (2001). Autonomie des Rechts? Niklas Luhmanns soziologischer Rechtspositivismus – Eine kritische Rekonstruktion. Politische Vierteljahresschrift (PVS), 42 (1), 3–29. https://doi.org/10.1007/s11615-001-0002-4.10.1007/s11615-001-0002-4Search in Google Scholar
Breitinger M. (2017). 26 Sekunden bis der Fahrer übernimmt, In ZEIT-ONLINE v. 02.02.2017, abrufbar unter https://www.zeit.de/mobilitaet/2017-02/autonomes-fahren-auto-fahrer-reaktionszeit [Stand 22.09.2022].Search in Google Scholar
Dettling H-U., Krüger S. (2019). Erste Schritte im Recht der Künstlichen Intelligenz – Entwurf der »Ethik-Leitlinien für eine vertrauenswürdige KI«. Zeitschrift für IT-Recht und Recht der Digitalisierung (MMR), 22 (4), 211–217.Search in Google Scholar
Eichelberger J. (2020). § 5 Zivilrechtliche Haftung für KI und smarte Robotik (S. 174–201). In Ebers M., Heinze C., Krügel T, Steinrötter B. (Hrsg.), Künstliche Intelligenz und Robotik, München: C.H.Beck.Search in Google Scholar
Ficuciello F., Tamburrini G., Arezzo A., Villani L., Siciliano B. (2019). Autonomy in surgical robots and its meaningful human control. Paladyn, Journal of Behavioral Robotics 10 (1), 30–43. https://doi.org/10.1515/pjbr-2019-0002.10.1515/pjbr-2019-0002Search in Google Scholar
Gaede K. (2019). Künstliche Intelligenz – Rechte und Strafen für Roboter? – Plädoyer für eine Regulierung künstlicher Intelligenz jenseits ihrer reinen Anwendung, Robotik und Recht. Band 18. Baden-Baden: Nomos. doi.org/10.5771/9783748900122.10.5771/9783748900122Search in Google Scholar
Gless S., Weigend T. (2014) Intelligente Agenten und das Strafrecht. Zeitschrift für die gesamte Strafrechtswissenschaft (ZStW) 126 (3), 561–591. https://doi.org/10.1515/zstw-2014-0024.10.1515/zstw-2014-0024Search in Google Scholar
Gruber M-C. (2013). Zumutung und Zumutbarkeit von Verantwortung in Mensch-Maschine-Assoziationen. Ein Beitrag zur zivilrechtlichen Entwicklung der Roboterhaftung (S. 123–163), In Hilgendorf E., Günther J-P. (Hrsg.), Robotik und Gesetzgebung, Robotik und Recht. Band 2. Baden-Baden: Nomos. doi.org/10.5771/9783845242200.10.5771/9783845242200-123Search in Google Scholar
Heckmann D. (2020). Digitale Assistenten. Sprachassistenzsysteme zwischen Recht, Ethik und Informatik (S. 47–58), In: Beck S., Kusche C., Valerius B. (Hrsg.), Digitalisierung, Automatisierung, KI und Recht, Baden-Baden: Nomos. doi.org/10.5771/9783748920984.10.5771/9783748920984-47Search in Google Scholar
Ionos SE (2019). Upload-Filter – Gefahr für das freie Internet?, abrufbar unter https://www.ionos.de/digitalguide/websites/online-recht/upload-filter/ [Stand 22.09.2022].Search in Google Scholar
Keßler, O. (2017). Intelligente Roboter – neue Technologien im Einsatz Voraussetzungen und Rechtsfolgen des Handelns informationstechnischer Systeme. Zeitschrift für IT-Recht und Recht der Digitalisierung (MMR), 20 (9), 589–594.Search in Google Scholar
Krohn, J., Beyleveld G., Bassens A. (2020). Deep Learning illustriert. Heidelberg: dpunkt.verlag.Search in Google Scholar
Kühl E. (2017). Zehn Sekunden für eine Entscheidung. In ZEIT-ONLINE v. 22.05.2017, abrufbar unter https://www.zeit.de/digital/internet/2017-05/facebook-regeln-inhalte-loeschen-interne-dokumente [Stand 22.09.2022].Search in Google Scholar
Lutz L. S. (2015). Autonome Fahrzeuge als rechtliche Herausforderung. Neue Juristische Wochenschrift (NJW), 68 (3), 113–192.Search in Google Scholar
Mayring P. (2015). Qualitative Inhaltsanalyse – Grundlagen und Techniken, 12. Aufl., Weinheim Basel: Beltz Verlag.Search in Google Scholar
Mecacci G., Santoni de Sio F. (2020). Meaningful human control as reason-responsiveness: the case of dual-mode vehicles. Ethics and Information Technology (,Ethics Inf Technol) 22 (2), 103–115. https://doi.org/10.1007/s10676-019-09519-w.10.1007/s10676-019-09519-wSearch in Google Scholar
Mündges S., Weitzel G. (2022). Wo sich der Hass Bahn bricht und wie wir damit umgehen können. Eine Einführung (S. 3–18). In Mündges S., Weitzel G. (Hrsg.), Hate Speech – Definitionen, Ausprägungen, Lösungen. Wiesbaden: Springer VS. https://doi.org/10.1007/978-3-658-35658-3_1.10.1007/978-3-658-35658-3_1Search in Google Scholar
Rademacher T. (2019). Wenn neue Technologien altes Recht durchsetzen: Dürfen wir es unmöglich machen, rechtswidrig zu handeln?. JuristenZeitung (JZ), 74 (14), 702–710.10.1628/jz-2019-0251Search in Google Scholar
Schürholz M., Spitzner E-C. (2019). Hardware für KI (S. 36–47). In Wittpahl V. (Hrsg.), Künstliche Intelligenz – Technologien, Anwendung, Gesellschaft, 2. Aufl., Berlin, Heidelberg: Springer Vieweg. https://doi.org/10.1007/978-3-662-58042-4_2.10.1007/978-3-662-58042-4_2Search in Google Scholar
Seher G. (2016). Intelligente Agenten als »Personen« im Strafrecht? (S. 45–60). In Gless S., Seelmann K. (Hrsg.), Intelligente Agenten und das Recht, Robotik und Recht. Band 9. Baden-Baden: Nomos. doi.org/10.5771/9783845280066.10.5771/9783845280066-45Search in Google Scholar
Sharkey N. (2016). Staying in the loop: the human supervisory control of weapons (S. 23–38). In Bhuta N., Beck S., Geiß R., Liu H-Y., Kreß C. (Hrsg.), Autonomous Weapons Systems: Law, Ethics, Policy, Cambridge: Cambridge University Press. https://doi.org/10.1017/CBO9781316597873.002.10.1017/CBO9781316597873.002Search in Google Scholar
Stellpflug T. (2020). § 32 KI und smarte Roboter im Kriegseinsatz (S. 989–1010). In Ebers M., Heinze C., Krügel T, Steinrötter B. (Hrsg.), Künstliche Intelligenz und Robotik, München: C.H.Beck.Search in Google Scholar
Stiemerling, O. (2020). Kapitel 2.1: Technische Grundlagen. (S. 15–31). In Kaulartz M. & Braegelmann T. (Hrsg.), Rechtshandbuch Artificial Intelligence und Machine Learning. München: C.H.Beck.10.17104/9783406761928-15Search in Google Scholar
Vogt W. (2003). Fahrerassistenzsysteme: Neue Technik – Neue Rechtsfragen?. Neue Zeitschrift für Verkehrsrecht (NZV), 16 (4), 153–160.Search in Google Scholar
Wennker P. (2020) Künstliche Intelligenz in der Praxis – Anwendung in Unternehmen und Branchen: KI wettbewerbs- und zukunftsorientiert einsetzen. Wiesbaden: Springer Gabler. https://doi.org/10.1007/978-3-658-30480-5.10.1007/978-3-658-30480-5Search in Google Scholar
Zech H. (2016). Zivilrechtliche Haftung für den Einsatz von Robotern – Zuweisung von Automatisierungs- und Autonomierisiken (S. 163–204). In Gless S., Seelmann K. (Hrsg.), Intelligente Agenten und das Recht, Robotik und Recht. Band 9. Baden-Baden: Nomos. doi.org/10.5771/9783845280066.10.5771/9783845280066-163Search in Google Scholar
Zech H. (2019). Künstliche Intelligenz und Haftungsfragen. Zeitschrift für die gesamte Privatrechtswissenschaft (ZfPW), 5 (2), 198–219.Search in Google Scholar
© 2022 Walter de Gruyter GmbH, Berlin/Boston
Articles in the same Issue
- Frontmatter
- Editorial
- Editorial: Kriminalität und Digitalisierung
- Artikel
- Täter und Täterinnen von Cyberkriminalität: Ergebnisse einer quantitativen Dunkelfeldbefragung in Niedersachsen
- Die Lücken in der kriminologischen Wissensgrundlage schließen: Eine Forschungsagenda für die kommenden zehn Jahre
- Diffusion individueller rechtlicher Verantwortlichkeit beim Einsatz Lernender Systeme
- Selbstauferlegte algorithmische Gedankenlosigkeit
- Zur Regulierung Künstlicher Intelligenz, auch in der Strafverfolgung
- Bekämpfung von Cybercrime
Articles in the same Issue
- Frontmatter
- Editorial
- Editorial: Kriminalität und Digitalisierung
- Artikel
- Täter und Täterinnen von Cyberkriminalität: Ergebnisse einer quantitativen Dunkelfeldbefragung in Niedersachsen
- Die Lücken in der kriminologischen Wissensgrundlage schließen: Eine Forschungsagenda für die kommenden zehn Jahre
- Diffusion individueller rechtlicher Verantwortlichkeit beim Einsatz Lernender Systeme
- Selbstauferlegte algorithmische Gedankenlosigkeit
- Zur Regulierung Künstlicher Intelligenz, auch in der Strafverfolgung
- Bekämpfung von Cybercrime