Home Technology KI-Training durch Simulation statt Annotation
Article
Licensed
Unlicensed Requires Authentication

KI-Training durch Simulation statt Annotation

Generierung synthetischer Datensätze auf Basis manuell und KI-generierter 3D-Modelle und Analyse des Sim-to-Real-Transfers
  • Christopher May

    Christopher May, M.Sc., ist seit 2023 Wissenschaftlicher Mitarbeiter im Forschungsbereich Robotik am Lehrstuhl für Fertigungsautomatisierung und Produktionssystematik (FAPS) der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU).

    EMAIL logo
    , Simon Fuchs

    Simon Fuchs, M.Sc., studierte bis 2025 an der FAU und fertigte seine Masterarbeit am Lehrstuhl für Fertigungsautomatisierung und Produktionssystematik (FAPS) an.

    , Jörg Franke

    Prof. Dr.-Ing. Jörg Franke ist seit 2009 Inhaber des Lehrstuhls für Fertigungsautomatisierung und Produktionssystematik (FAPS) der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU).

    and Sebastian Reitelshöfer

    Dr.-Ing. Sebastian Reitelshöfer leitet seit 2014 den Forschungsbereich Biomechatronik, mittlerweile Robotik, am Lehrstuhl für Fertigungsautomatisierung und Produktionssystematik (FAPS).

Published/Copyright: October 29, 2025

Abstract

Künstliche Intelligenz (KI) steigert Effizienz und Flexibilität industrieller Prozesse, erfordert jedoch umfangreiche annotierte Trainingsdaten. Dieser Beitrag untersucht anhand eines Objektdetektors, inwieweit sich rein simulationsbasierte, synthetische Datensätze für das Training eignen. Zudem wird der Einsatz generativer KI evaluiert. Die Ergebnisse zeigen, dass durch gezielte Parametrierung eine ausreichende Leistung auf Realdaten ohne manuelle Annotation möglich ist.

Abstract

Although artificial intelligence increases the efficiency and flexibility of industrial processes, it requires extensive annotated training data. This article uses an object detector to investigate the suitability of purely simulation-based, synthetic datasets for training purposes. It also evaluates the use of generative AI. The results show that targeted parameterisation can achieve sufficient performance on real data without the need for manual annotation.


Hinweis

Bei diesem Beitrag handelt es sich um einen von den Mitgliedern des ZWF-Advisory-Board wissenschaftlich begutachteten Fachaufsatz (Peer Review).



Tel.: +49 (0) 162 1375701

Funding statement: Diese Veröffentlichung entstand im Rahmen des Verbundprojekts POV.OS – Hardware- und Softwareplattform für mobile Arbeitsmaschinen (Förderkennzeichen: 19A22010L). Gefördert wurde durch das Bundesministerium für Wirtschaft und Energie aufgrund eines Beschlusses des Deutschen Bundestages.

About the authors

Christopher May

Christopher May, M.Sc., ist seit 2023 Wissenschaftlicher Mitarbeiter im Forschungsbereich Robotik am Lehrstuhl für Fertigungsautomatisierung und Produktionssystematik (FAPS) der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU).

Simon Fuchs

Simon Fuchs, M.Sc., studierte bis 2025 an der FAU und fertigte seine Masterarbeit am Lehrstuhl für Fertigungsautomatisierung und Produktionssystematik (FAPS) an.

Prof. Dr.-Ing. Jörg Franke

Prof. Dr.-Ing. Jörg Franke ist seit 2009 Inhaber des Lehrstuhls für Fertigungsautomatisierung und Produktionssystematik (FAPS) der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU).

Dr.-Ing. Sebastian Reitelshöfer

Dr.-Ing. Sebastian Reitelshöfer leitet seit 2014 den Forschungsbereich Biomechatronik, mittlerweile Robotik, am Lehrstuhl für Fertigungsautomatisierung und Produktionssystematik (FAPS).

Literatur

1 Meiners, M.; Mayr, A.; Thomsen, M.; Franke, J.: Application of Machine Learning for Product Batch Oriented Control of Production Processes. Procedia CIRP 93 (2020), S. 431–436 DOI:10.1016/j.procir.2020.04.00610.1016/j.procir.2020.04.006Search in Google Scholar

2 Hofmann, C.; May, C.; Ziegler, P.; Ghotbiravandi, I.; Franke, J.; Reitelshöfer, S.: Automated Individualization of Object Detectors for the Semantic Environment Perception of Mobile Robots. In: Proceedings of the 20th International Joint Conference on Computer Vision, Imaging and Computer Graphics Theory and Applications: SCITEPRESS – Science and Technology Publications, 2025, S. 851–862 DOI:10.5220/001316250000391210.5220/0013162500003912Search in Google Scholar

3 Lin, T.-Y.; Maire, M.; Belongie, S.; Hays, J.; Perona, P.; Ramanan, D.; Dollár, P.; Zitnick, C. L.: Microsoft COCO: Common Objects in Context, Bd. 8693. In: Fleet, D.; Pajdla, T.; Schiele, B.; Tuytelaars, T. (Hrsg.): Computer Vision – ECCV 2014. Springer International Publishing (Lecture Notes in Computer Science), Cham 2014, S. 740–755 DOI:10.1007/978-3-319-10602-1_4810.1007/978-3-319-10602-1_48Search in Google Scholar

4 Metzner, M.; Albrecht, F.; Fiegert, M.; Bauer, B.; Martin, S.; Karlidag, E.; Blank, A.; Franke, J.: Virtual Training and Commissioning of Industrial Bin Picking Systems Using Synthetic Sensor Data and Simulation. International Journal of Computer Integrated Manufacturing 35 (2022), 4/5, S. 483–492 DOI:10.1080/0951192X.2021.200461810.1080/0951192X.2021.2004618Search in Google Scholar

5 May, C.; Suchy, L.; Franke, J.; Reitelshöfer, S.: Towards Imaginative Robots: A Generative Pipeline for Simulated Environments. SNE Simulation Notes Europe 35 (2025) 1, S. 61–70 DOI:10.11128/sne.35.tn.1072010.11128/sne.35.tn.10720Search in Google Scholar

6 Rombach, R.; Blattmann, A.; Lorenz, D.; Esser, P.; Ommer, B.: High-Resolution Image Synthesis with Latent Diffusion Models. In: 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR): IEEE, 2022, S. 10674–10685 DOI:10.1109/CVPR52688.2022.0104210.1109/CVPR52688.2022.01042Search in Google Scholar

7 Zwingel, M.; May, C.; Kalenberg, M.; Franke, J.: Robotics Simulation – A Comparison of Two State-of-the-Art Solutions.In: Breitenecker, F.; Deatcu, C.; Durak, U.; Körner, A.; Pawletta, T. (Hrsg.):,ASIM SST 2022 Proceedings Langbeiträge, Jul. 2022, S. 171–178 DOI:10.11128/arep.20.a203310.11128/arep.20.a2033Search in Google Scholar

8 Google DeepMind: Imagen – Our Best Image Generation Model Yet, Engineered for Creativity. Online unter https://deepmind.google/models/imagen [Abruf am 04.07.2025]Search in Google Scholar

9 OpenAI: Introducing 4o Image Generation. Online unter https://openai.com/index/introducing-4o-image-generation [Abruf am 04.07.2025]Search in Google Scholar

10 Black Forest Labs: FLUX.1-dev. Online unter https://huggingface.co/black-forest-labs/FLUX.1-dev [Abruf am 29.06.2025]Search in Google Scholar

11 Black Forest Labs: Announcing Black Forest Labs. Online unter https://bfl.ai/announcements/24-08-01-bfl [Abruf am 29.06.2025]Search in Google Scholar

12 Labs, B. F.; Batifol, S.; Blattmann, A. et al.: FLUX.1 Kontext: Flow Matching for In-Context Image Generation and Editing in Latent Space. 17.06.2025 DOI:10.48550/arXiv:2506.1574210.48550/arXiv:2506.15742Search in Google Scholar

13 Stability AI: Stable-Diffusion-3.5-Large. Online unter https://huggingface.co/stabilityai/stable-diffusion-3.5-large [Abruf am 04.07.2025]Search in Google Scholar

14 Huang, Z.; Boss, M.; Vasishta, A.; Rehg, J. M.; Jampani, V.: SPAR3D: Stable Point-Aware Reconstruction of 3D Objects from Single Images. 08.01.2025 DOI:10.1109/CVPR52734.2025.0157110.1109/CVPR52734.2025.01571Search in Google Scholar

15 Lai, Z.; Zhao, Y.; Liu, H. et al.: Hunyuan3D 2.5: Towards High-Fidelity 3D Assets Generation with Ultimate Details. 19.06.2025 DOI:10.48550/arXiv:2506.1650410.48550/arXiv:2506.16504Search in Google Scholar

16 Microsoft: TRELLIS (30.05.2025). Online unter https://github.com/microsoft/TRELLIS [Abruf am 29.06.2025]Search in Google Scholar

17 Redmon, J.; Divvala, S.; Girshick, R.; Farhadi, A.: You Only Look Once: Unified, Real-Time Object Detection. In: Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR): IEEE, 2016, S. 779–788 DOI:10.1109/CVPR.2016.9110.1109/CVPR.2016.91Search in Google Scholar

18 Tian, Y.; Ye, Q.; Doermann, D.: YOLOv12: Attention-Centric Real-Time Object Detectors. 18.02.2025 DOI:10.48550/arXiv:2502.1252410.48550/arXiv:2502.12524Search in Google Scholar

19 Xiang, J.; Lv, Z.; Xu, S. et al.: Structured 3D Latents for Scalable and Versatile 3D Generation. https://arxiv.org/abs/2412.01506 DOI:10.48550/arXiv.2412.0150610.48550/arXiv.2412.01506Search in Google Scholar

20 NVIDIA: NVIDIA Isaac Sim. Online unter https://developer.nvidia.com/isaac/sim [Abruf am 20.07.2025]Search in Google Scholar

21 Jocher, G.; Qiu, J.; Chaurasia, A.: Ultralytics YOLO. Online unter https://github.com/ultralytics/ultralytics [Abruf am 08.03.2025]Search in Google Scholar

Published Online: 2025-10-29
Published in Print: 2025-10-20

© 2025 Walter de Gruyter GmbH, Berlin/Boston, Germany

Downloaded on 4.2.2026 from https://www.degruyterbrill.com/document/doi/10.1515/zwf-2025-1114/html
Scroll to top button