Startseite Technik Vertrauen in KI kalibrieren
Artikel
Lizenziert
Nicht lizenziert Erfordert eine Authentifizierung

Vertrauen in KI kalibrieren

Wie Mitarbeitende angemessen mit neuen Technologien zusammenarbeiten können
  • Lisa Thomaschewski

    Dr. Lisa Thomaschewski ist Postdoktorandin am Lehrstuhl Arbeits-, Organisations- & Wirtschaftspsychologie der Ruhr-Universität Bochum (RUB). Nach ihrem Bachelorstudium der Psychologie an der Universität Hamburg absolvierte sie den Master in Psychologie (Schwerpunkt Arbeits-, Organisations- und Wirtschaftspsychologie) an der RUB. In ihrer Promotion entwickelte sie ein Modell zum Human-Task-Technology Fit, mit dem sie den Einsatz von AR-Technologien in der Arbeitswelt untersuchte. Ihre Forschung verbindet psychologische Perspektiven mit interdisziplinären Fragestellungen rund um zukunftsweisende Technologien wie KI, AR, VR und Mixed Reality. Ihr zentrales Anliegen ist es, technische Systeme so zu gestalten, dass sie sich an die individuellen Bedürfnisse und Fähigkeiten der Nutzenden anpassen und menschzentrierte Arbeitswelten fördern.

    EMAIL logo
    , Alina Tausch

    Dr. Alina Tausch ist Vertretungsprofessorin für Personal- und Organisationspsychologie an der Universität Witten/Herdecke und Studiengangsleiterin für den B. Sc. Management & Psychologie. Nach ihrem Wirtschaftspsychologie-Studium hat bei der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin im Themenbereich Mensch-Roboter-Kollaboration in Industrie und Pflege gearbeitet, und im Folgenden als Postdoktorandin an der RUB, wo sich Mensch-KI-Teaming und adaptive Zusammenarbeit mit Technologien als ihre zentralen Forschungsthemen etabliert haben.

    , Sophie Berretta

    Dr. Sophie Berretta arbeitet als Postdoktorandin an der RUB am Lehrstuhl für Arbeits-, Organisations- und Wirtschaftspsychologie sowie am Zentrum für das Engineering Smarter Produkt-Service-Systeme (ZESS). Im Rahmen des Projekts HUMAINE promovierte sie zur menschzentrierten Implementierung von KI-Systemen in Organisationen und befasst sich insbesondere mit Mensch-KI-Teaming, der Bedeutung von Job-Identität sowie mit ethischen Fragestellungen rund um den Einsatz KI-gestützter Systeme in der Arbeitswelt.

    , Olga Vogel

    Dr. Olga Vogel ist Postdoc am Lehrstuhl für Arbeits-, Organisations- und Wirtschaftspsychologie der RUB. Ihr Hauptforschungsbereich umfasst die humanzentrierte Implementierung von disruptiven Technologien. Sie promovierte darüber hinaus zum Thema der Wissensintegration in der inter- und transdisziplinären Anwendung.

    und Annette Kluge

    Prof. Dr. Annette Kluge ist Professorin für AOW-Psychologie und leitet die Studiengänge M. Sc. Arbeits-, Organisations- und Wirtschaftspsychologie sowie M. A. Human Ressource Management der Akademie der Ruhr-Universität Bochum.

Veröffentlicht/Copyright: 29. Oktober 2025
Veröffentlichen auch Sie bei De Gruyter Brill

Abstract

Vertrauen in Künstliche Intelligenz (KI) ist essentiell für ihre Integration in Wertschöpfungsketten. Es wird beeinflusst durch die Vertrauenswürdigkeit des Systems und deren Wahrnehmung seitens der Nutzenden. Beide Bereiche wirken sich auf die Vertrauenskalibrierung aus – Voraussetzung für den angemessenen Umgang mit KI. Kern des Beitrags ist eine systematische Übersicht über vertrauensrelevante Aspekte, ihre Interaktion und daraus resultierende Empfehlungen, wie Mitarbeitende angemessen mit neuen Technologien zusammenarbeiten können.

Abstract

Trust in artificial intelligence (AI) is vital for its integration into value chains. It is shaped by both the trustworthiness of the system and its perception from the user’s perspective. Both dimensions contribute to the calibration of trust – a key prerequisite for the appropriate use of AI systems. This contribution presents a systematic overview of trust-relevant factors, their interactions, and resulting recommendations for effective human-technology collaboration in the workplace.


Hinweis

Bei diesem Beitrag handelt es sich um einen von den Mitgliedern des ZWF-Advisory-Board wissenschaftlich begutachteten Fachaufsatz (Peer Review).



Tel.: +49 (0) 234 32-19504

About the authors

Lisa Thomaschewski

Dr. Lisa Thomaschewski ist Postdoktorandin am Lehrstuhl Arbeits-, Organisations- & Wirtschaftspsychologie der Ruhr-Universität Bochum (RUB). Nach ihrem Bachelorstudium der Psychologie an der Universität Hamburg absolvierte sie den Master in Psychologie (Schwerpunkt Arbeits-, Organisations- und Wirtschaftspsychologie) an der RUB. In ihrer Promotion entwickelte sie ein Modell zum Human-Task-Technology Fit, mit dem sie den Einsatz von AR-Technologien in der Arbeitswelt untersuchte. Ihre Forschung verbindet psychologische Perspektiven mit interdisziplinären Fragestellungen rund um zukunftsweisende Technologien wie KI, AR, VR und Mixed Reality. Ihr zentrales Anliegen ist es, technische Systeme so zu gestalten, dass sie sich an die individuellen Bedürfnisse und Fähigkeiten der Nutzenden anpassen und menschzentrierte Arbeitswelten fördern.

Dr. Alina Tausch

Dr. Alina Tausch ist Vertretungsprofessorin für Personal- und Organisationspsychologie an der Universität Witten/Herdecke und Studiengangsleiterin für den B. Sc. Management & Psychologie. Nach ihrem Wirtschaftspsychologie-Studium hat bei der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin im Themenbereich Mensch-Roboter-Kollaboration in Industrie und Pflege gearbeitet, und im Folgenden als Postdoktorandin an der RUB, wo sich Mensch-KI-Teaming und adaptive Zusammenarbeit mit Technologien als ihre zentralen Forschungsthemen etabliert haben.

Dr. Sophie Berretta

Dr. Sophie Berretta arbeitet als Postdoktorandin an der RUB am Lehrstuhl für Arbeits-, Organisations- und Wirtschaftspsychologie sowie am Zentrum für das Engineering Smarter Produkt-Service-Systeme (ZESS). Im Rahmen des Projekts HUMAINE promovierte sie zur menschzentrierten Implementierung von KI-Systemen in Organisationen und befasst sich insbesondere mit Mensch-KI-Teaming, der Bedeutung von Job-Identität sowie mit ethischen Fragestellungen rund um den Einsatz KI-gestützter Systeme in der Arbeitswelt.

Dr. Olga Vogel

Dr. Olga Vogel ist Postdoc am Lehrstuhl für Arbeits-, Organisations- und Wirtschaftspsychologie der RUB. Ihr Hauptforschungsbereich umfasst die humanzentrierte Implementierung von disruptiven Technologien. Sie promovierte darüber hinaus zum Thema der Wissensintegration in der inter- und transdisziplinären Anwendung.

Prof. Dr. Annette Kluge

Prof. Dr. Annette Kluge ist Professorin für AOW-Psychologie und leitet die Studiengänge M. Sc. Arbeits-, Organisations- und Wirtschaftspsychologie sowie M. A. Human Ressource Management der Akademie der Ruhr-Universität Bochum.

Literatur

1 Russell, S.; Norvig, P.: Artificial Intelligence – A Modern Approach: Prentice-Hall Series in Artificial Intelligence. Prentice-Hall, Upper Saddle River, NJ 2010Suche in Google Scholar

2 Dellermann, D.; Calma, A.; Lipusch, N.; Weber, T.; Weigel, S.; Ebel, P.: The Future of Human-AI Collaboration: A Taxonomy of Design Knowledge for Hybrid Intelligence Systems. Conference: Hawaii International Conference on System Sciences 2019 DOI:10.24251/HICSS.2019.03410.24251/HICSS.2019.034Suche in Google Scholar

3 Heimberger, H.; Jäger, A.; Maloca, S.: Künstliche Intelligenz in der Produktion: Modernisierung der Produktion. 83. Mitteilung aus der ISI-Erhebung. Fraunhofer ISI, Karlsruhe 2024Suche in Google Scholar

4 Parker, S.; Grote, G.: Automation, Algorithms, and Beyond: Why Work Design Matters More Than Ever in a Digital World. Applied Psychology 71 (2022) 4, S. 1171–1204 DOI:10.1111/apps.1224110.1111/apps.12241Suche in Google Scholar

5 Deutsche Gesetzliche Unfallversicherung (DGUV): DGUV Barometer Arbeitswelt 2025: KI in der Arbeitswelt – DGUV Barometer Arbeitswelt 2025. Online unter https://www.dguv.de/medien/inhalt/mediencenter/pm/pressearchiv/2025/quartal_2/22742_dguv_barometer_ki_anwendungen.pdf [Abruf am 30.03.2025]Suche in Google Scholar

6 Visser, E. de; Peeters, M.; Jung, M.; Kohn, S.; Shaw, T.; Pak, R.; Neerincx, M.: Towards a Theory of Longitudinal Trust Calibration in Human–Robot Teams. International Journal of Social Robotics 12 (2020) 2, S. 459–478 DOI:10.1007/s12369-019-00596-x10.1007/s12369-019-00596-xSuche in Google Scholar

7 Lee, J; See, K.: Trust in Automation: Designing for Appropriate Reliance. Human Factors 46 (2004) 1, S. 50–80 DOI:10.1518/hfes.46.1.50.3039210.1518/hfes.46.1.50.30392Suche in Google Scholar

8 Mayer, R; Davis, J; Schoorman, F.: An Integrative Model of Organizational Trust. The Academy of Management Review 20 (1995) 3, S. 709 DOI:10.2307/25879210.2307/258792Suche in Google Scholar

9 Hoff, K.; Bashir, M.: Trust in Automation: Integrating Empirical Evidence on Factors That Influence Trust. Human Factors 57 (2015) 3, S. 407–434 DOI:10.1177/001872081454757010.1177/0018720814547570Suche in Google Scholar PubMed

10 Ashoori, M.; Weisz, J.: In AI We Trust? Factors That Influence Trustworthiness of AI-infused Decision-Making Processes. arXiv 2019Suche in Google Scholar

11 Schlicker, N.; Baum, K.; Uhde, A.; Sterz, S.; Hirsch, M.; Langer, M.: How Do We Assess the Trustworthiness of AI? Introducing the Trustworthiness Assessment Model (TrAM). Computers in Human Behavior 170 (2025) 1, 108671 DOI:10.1016/j.chb.2025.10867110.1016/j.chb.2025.108671Suche in Google Scholar

12 Funder, D.: On the Accuracy of Personality Judgment: A Realistic Approach. Psychological Review 102 (1995) 4, S. 652–670 DOI:10.1037//0033-295X.102.4.65210.1037//0033-295X.102.4.652Suche in Google Scholar

13 Nourani, M.; Roy, C.; Block, J.; Honeycutt, D.; Rahman, T.; Ragan, E.; Gogate, V.: Anchoring Bias Affects Mental Model Formation and User Reliance in Explainable AI Systems. In: Hammond, T.; Verbert, K.; Parra, D.; Knijnenburg, B.; O‘Donovan, J.; Teale, P. (Hrsg.): Proceedings of the 26th International Conference on Intelligent User Interfaces (IUI ‚21). ACM, New York, NY, USA 2021, S. 340–350 DOI:10.1145/3397481.345063910.1145/3397481.3450639Suche in Google Scholar

14 Zhang, Y.; Liao, Q.; Bellamy, R.: Effect of Confidence and Explanation on Accuracy and Trust Calibration in AI-assisted Decision Making. In: Hildebrandt, M.; Castillo, C.; Celis, E.; Ruggieri, S.; Taylor, L.; Zanfir-Fortuna, G. (Hrsg.): Proceedings of the 2020 Conference on Fairness, Accountability, and Transparency (FACCT ‚20). ACM, New York, NY, USA 2020, S. 295–305 DOI:10.1145/3351095.337285210.1145/3351095.3372852Suche in Google Scholar

15 Buçinca, Z.; Malaya, M.; Gajos, K.: To Trust or to Think: Cognitive Forcing Functions Can Reduce Overreliance on AI in AI-assisted Decision-making. In: Proceedings of the ACM on Human-Computer Interaction (2021), Volume 5, Issue CSCW1, Article No.: 188, S 1–21 DOI:10.1145/344928710.1145/3449287Suche in Google Scholar

16 Merritt, S.; Ilgen, D.: Not All Trust Is Created Equal: Dispositional and History-based Trust in Human-Automation Interactions. Human Factors 50 (2008) 2, S. 194–210 DOI:10.1518/001872008X28857410.1518/001872008X288574Suche in Google Scholar PubMed

17 Ferronato, P.; Bashir, M.: An Examination of Dispositional Trust in Human and Autonomous System Interactions. In: Kurosu, M. (Hrsg.): Human-Computer Interaction – Human Values and Quality of Life. Springer International Publishing, Cham 2020, S. 420–43510.1007/978-3-030-49065-2_30Suche in Google Scholar

18 Riedl, R.; Javor, A.: The Biology of Trust: Integrating Evidence from Genetics, Endocrinology, and Functional Brain Imaging. Journal of Neuroscience, Psychology, and Economics 5 (2012) 2, S. 63–91 DOI:10.1037/a002631810.1037/a0026318Suche in Google Scholar

19 Colquitt, J.; Scott, B.; LePine, J.: Trust, Trustworthiness, and Trust Propensity: A Metaanalytic Test of Their Unique Relationships with Risk Taking and Job Performance. The Journal of Applied Psychology 92 (2007) 4, S. 909–927 DOI:10.1037/0021-9010.92.4.90910.1037/0021-9010.92.4.909Suche in Google Scholar PubMed

20 Mcknight, D.; Carter, M.; Thatcher, J.; Clay, P.: Trust in a Specific Technology. ACM Transactions on Management Information Systems (TMIS) 2 (2011) 2, S. 1–25 DOI:10.1145/1985347.198535310.1145/1985347.1985353Suche in Google Scholar

21 Ayoub, J.; Yang, X.; Zhou, F.: Modeling Dispositional and Initial Learned Trust in Automated Vehicles with Predictability and Explainability. Transportation Research Part F: Traffic Psychology and Behaviour 77 (2021), S. 102–116 DOI:10.1016/j.trf.2020.12.01510.1016/j.trf.2020.12.015Suche in Google Scholar

22 Parasuraman, R.; Riley, V.: Humans and Automation: Use, Misuse, Disuse, Abuse. Human Factors 39 (1997) 2, S. 230–253 DOI:10.1518/00187209777854388610.1518/001872097778543886Suche in Google Scholar

23 Korsgaard, M.; Kautz, J.; Bliese, P.; Samson, K.; Kostyszyn, P.: Conceptualising Time as a Level of Analysis: New Directions in the Analysis of Trust Dynamics. Journal of Trust Research 8 (2018) 2, S. 142–165 DOI:10.1080/21515581.2018.151655710.1080/21515581.2018.1516557Suche in Google Scholar

24 Alonso, V.; La Puente, P. de: System Transparency in Shared Autonomy: A Mini Review. Frontiers in Neurorobotics 12 (2018), S. 83 DOI:10.3389/fnbot.2018.0008310.3389/fnbot.2018.00083Suche in Google Scholar PubMed PubMed Central

25 Hancock, P.; Kessler, T.; Kaplan, A.; Stowers, K.; Brill, J.; Billings, D.; Schaefer, K.; Szalma, J.: How and Why Humans Trust: A Meta-Analysis and Elaborated Model. Frontiers in Psychology 14 (2023), 1081086 DOI:10.3389/fpsyg.2023.108108610.3389/fpsyg.2023.1081086Suche in Google Scholar PubMed PubMed Central

26 O‘Neill, T.; McNeese, N.; Barron, A.; Schelble, B.: Human-Autonomy Teaming: A Review and Analysis of the Empirical Literature. Human Factors 64 (2022) 5, S. 904–938 DOI:10.1177/001872082096086510.1177/0018720820960865Suche in Google Scholar PubMed PubMed Central

27 Müller, L.; Hertel, G.: Trusting Information Systems in Everyday Work Events – Effects on Cognitive Resources, Performance, and Well-Being. Ergonomics 68 (2025) 1, S. 19–36 DOI:10.1080/00140139.2023.228691010.1080/00140139.2023.2286910Suche in Google Scholar PubMed

28 McDermott, P.; Brink, R. ten: Practical Guidance for Evaluating Calibrated Trust. In: Proceedings of the Human Factors and Ergonomics Society Annual Meeting 63 (2019) 1, S. 362–366 DOI:10.1177/107118131963137910.1177/1071181319631379Suche in Google Scholar

29 Langer, M.; König, C.J.; Back, C.; Hemsing, V.: Trust in Artificial Intelligence: Comparing Trust Processes between Human and Automated Trustees in Light of Unfair Bias. Journal of Business and Psychology 38 (2023) 3, S. 493–50810.1007/s10869-022-09829-9Suche in Google Scholar

30 Esterwood, C.; Robert, L., Jr.: Three Strikes and You Are Out!: The Impacts of Multiple Muman-Robot Trust Violations and Repairs on Robot Trustworthiness. Computers in Human Behavior 142 (2023), 107658 DOI:10.1016/j.chb.2023.10765810.1016/j.chb.2023.107658Suche in Google Scholar

31 Hoesterey, S.; Onnasch, L.: The Effect of Risk on Trust Attitude and Trust Behavior in Interaction with Information and Decision Automation.Cognition, Technology & Work 25 (2023) 1, S. 15–29 DOI:10.1007/s10111-022-00718-y10.1007/s10111-022-00718-ySuche in Google Scholar

32 Riegelsberger, J.; Sasse, M.; McCarthy, J.: The Mechanics of Trust: A Framework for Research and Design. International Journal of Human-Computer Studies 62 (2005) 3, S. 381–422 DOI:10.1016/j.ijhcs.2005.01.00110.1016/j.ijhcs.2005.01.001Suche in Google Scholar

33 Manzey, D.; Reichenbach, J.; Onnasch, L.: Human Performance Consequences of Automated Decision Aids. Journal of Cognitive Engineering and Decision Making 6 (2012) 1, S. 57–87 DOI:10.1177/155534341143384410.1177/1555343411433844Suche in Google Scholar

34 Seong, Y.; Bisantz, A.: The Impact of Cognitive Feedback on Judgment Performance and Trust with Decision Aids. International Journal of Industrial Ergonomics 38 (2008) 7-8, S. 608–625 DOI:10.1016/j.ergon.2008.01.00710.1016/j.ergon.2008.01.007Suche in Google Scholar

35 Mosier, K.; Manzey, D.: Humans and Automated Decision Aids: A Match Made in Heaven? In: Mouloua, M; Hancock, P; Ferraro, J. (Hrsg.): Human Performance in Automated and Autonomous Systems. CRC Press, Boca Raton, FL CRC Press/Taylor & Francis Group, 2019, S. 19–42 DOI:10.1201/9780429458330-210.1201/9780429458330-2Suche in Google Scholar

36 Tatasciore, M.; Strickland, L.; Loft, S.: Transparency Improves the Accuracy of Automation Use, but Automation Confidence Information Does Not. Cognitive Research: Principles and Implications 9 (2024) 1, S. 67 DOI:10.1186/s41235-024-00599-x10.1186/s41235-024-00599-xSuche in Google Scholar PubMed PubMed Central

37 Parasuraman, R.; Miller, C.: Trust and Etiquette in High-Criticality Automated Systems. Commun. ACM 47 (2004) 4, S. 51–55 DOI:10.1145/975817.97584410.1145/975817.975844Suche in Google Scholar

38 Wickens, C.; Hollands, J.: Engineering Psychology and Human Performance. Prentice-Hall, Upper Saddle River, NJ 2000Suche in Google Scholar

39 Berretta, S.; Tausch, A.; Ontrup, G.; Gilles, B.; Peifer, C.; Kluge, A.: Defining Human-AI Teaming the Human-centered Way: A Scoping Review and Network Analysis. Frontiers in Artificial Intelligence 6 (2023), 1250725 DOI:10.3389/frai.2023.125072510.3389/frai.2023.1250725Suche in Google Scholar PubMed PubMed Central

40 Rieger, T.; Manzey, D.; Meussling, B.; Onnasch, L.; Roesler, E.: Be Careful What You Explain: Benefits and Costs of Explainable AI in a Simulated Medical Task. Computers in Human Behavior: Artificial Humans 1 (2023) 2, 100021 DOI:10.1016/j.chbah.2023.10002110.1016/j.chbah.2023.100021Suche in Google Scholar

41 Jian, J.-Y.; Bisantz, A.; Drury, C.: Foundations for an Empirically Determined Scale of Trust in Automated Systems. International Journal of Cognitive Ergonomics 4 (2000) 1, S. 53–71 DOI:10.1207/S15327566IJCE0401_0410.1207/S15327566IJCE0401_04Suche in Google Scholar

42 Malle, B.; Ullman, D.: A Multidimensional Conception and Measure of Human-Robot Trust. In: Nam, S.; Lyons, J. (Hrsg.): Trust in Human-Robot Interaction. Elsevier 2021, S. 3–25 DOI:10.1016/B978-0-12-819472-0.00001-010.1016/B978-0-12-819472-0.00001-0Suche in Google Scholar

43 Wischnewski, M.; Doebler, P.; Krämer, N.: Development and Validation of the Trust in AI Scale (TAIS). OSF (2025) DOI:10.31234/osf.io/eqa9y_v110.31234/osf.io/eqa9y_v1Suche in Google Scholar

Published Online: 2025-10-29
Published in Print: 2025-10-20

© 2025 Walter de Gruyter GmbH, Berlin/Boston, Germany

Heruntergeladen am 4.2.2026 von https://www.degruyterbrill.com/document/doi/10.1515/zwf-2025-1113/pdf
Button zum nach oben scrollen