Startseite Technik KI-Training durch Simulation statt Annotation
Artikel
Lizenziert
Nicht lizenziert Erfordert eine Authentifizierung

KI-Training durch Simulation statt Annotation

Generierung synthetischer Datensätze auf Basis manuell und KI-generierter 3D-Modelle und Analyse des Sim-to-Real-Transfers
  • Christopher May

    Christopher May, M.Sc., ist seit 2023 Wissenschaftlicher Mitarbeiter im Forschungsbereich Robotik am Lehrstuhl für Fertigungsautomatisierung und Produktionssystematik (FAPS) der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU).

    EMAIL logo
    , Simon Fuchs

    Simon Fuchs, M.Sc., studierte bis 2025 an der FAU und fertigte seine Masterarbeit am Lehrstuhl für Fertigungsautomatisierung und Produktionssystematik (FAPS) an.

    , Jörg Franke

    Prof. Dr.-Ing. Jörg Franke ist seit 2009 Inhaber des Lehrstuhls für Fertigungsautomatisierung und Produktionssystematik (FAPS) der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU).

    und Sebastian Reitelshöfer

    Dr.-Ing. Sebastian Reitelshöfer leitet seit 2014 den Forschungsbereich Biomechatronik, mittlerweile Robotik, am Lehrstuhl für Fertigungsautomatisierung und Produktionssystematik (FAPS).

Veröffentlicht/Copyright: 29. Oktober 2025
Veröffentlichen auch Sie bei De Gruyter Brill

Abstract

Künstliche Intelligenz (KI) steigert Effizienz und Flexibilität industrieller Prozesse, erfordert jedoch umfangreiche annotierte Trainingsdaten. Dieser Beitrag untersucht anhand eines Objektdetektors, inwieweit sich rein simulationsbasierte, synthetische Datensätze für das Training eignen. Zudem wird der Einsatz generativer KI evaluiert. Die Ergebnisse zeigen, dass durch gezielte Parametrierung eine ausreichende Leistung auf Realdaten ohne manuelle Annotation möglich ist.

Abstract

Although artificial intelligence increases the efficiency and flexibility of industrial processes, it requires extensive annotated training data. This article uses an object detector to investigate the suitability of purely simulation-based, synthetic datasets for training purposes. It also evaluates the use of generative AI. The results show that targeted parameterisation can achieve sufficient performance on real data without the need for manual annotation.


Hinweis

Bei diesem Beitrag handelt es sich um einen von den Mitgliedern des ZWF-Advisory-Board wissenschaftlich begutachteten Fachaufsatz (Peer Review).



Tel.: +49 (0) 162 1375701

Funding statement: Diese Veröffentlichung entstand im Rahmen des Verbundprojekts POV.OS – Hardware- und Softwareplattform für mobile Arbeitsmaschinen (Förderkennzeichen: 19A22010L). Gefördert wurde durch das Bundesministerium für Wirtschaft und Energie aufgrund eines Beschlusses des Deutschen Bundestages.

About the authors

Christopher May

Christopher May, M.Sc., ist seit 2023 Wissenschaftlicher Mitarbeiter im Forschungsbereich Robotik am Lehrstuhl für Fertigungsautomatisierung und Produktionssystematik (FAPS) der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU).

Simon Fuchs

Simon Fuchs, M.Sc., studierte bis 2025 an der FAU und fertigte seine Masterarbeit am Lehrstuhl für Fertigungsautomatisierung und Produktionssystematik (FAPS) an.

Prof. Dr.-Ing. Jörg Franke

Prof. Dr.-Ing. Jörg Franke ist seit 2009 Inhaber des Lehrstuhls für Fertigungsautomatisierung und Produktionssystematik (FAPS) der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU).

Dr.-Ing. Sebastian Reitelshöfer

Dr.-Ing. Sebastian Reitelshöfer leitet seit 2014 den Forschungsbereich Biomechatronik, mittlerweile Robotik, am Lehrstuhl für Fertigungsautomatisierung und Produktionssystematik (FAPS).

Literatur

1 Meiners, M.; Mayr, A.; Thomsen, M.; Franke, J.: Application of Machine Learning for Product Batch Oriented Control of Production Processes. Procedia CIRP 93 (2020), S. 431–436 DOI:10.1016/j.procir.2020.04.00610.1016/j.procir.2020.04.006Suche in Google Scholar

2 Hofmann, C.; May, C.; Ziegler, P.; Ghotbiravandi, I.; Franke, J.; Reitelshöfer, S.: Automated Individualization of Object Detectors for the Semantic Environment Perception of Mobile Robots. In: Proceedings of the 20th International Joint Conference on Computer Vision, Imaging and Computer Graphics Theory and Applications: SCITEPRESS – Science and Technology Publications, 2025, S. 851–862 DOI:10.5220/001316250000391210.5220/0013162500003912Suche in Google Scholar

3 Lin, T.-Y.; Maire, M.; Belongie, S.; Hays, J.; Perona, P.; Ramanan, D.; Dollár, P.; Zitnick, C. L.: Microsoft COCO: Common Objects in Context, Bd. 8693. In: Fleet, D.; Pajdla, T.; Schiele, B.; Tuytelaars, T. (Hrsg.): Computer Vision – ECCV 2014. Springer International Publishing (Lecture Notes in Computer Science), Cham 2014, S. 740–755 DOI:10.1007/978-3-319-10602-1_4810.1007/978-3-319-10602-1_48Suche in Google Scholar

4 Metzner, M.; Albrecht, F.; Fiegert, M.; Bauer, B.; Martin, S.; Karlidag, E.; Blank, A.; Franke, J.: Virtual Training and Commissioning of Industrial Bin Picking Systems Using Synthetic Sensor Data and Simulation. International Journal of Computer Integrated Manufacturing 35 (2022), 4/5, S. 483–492 DOI:10.1080/0951192X.2021.200461810.1080/0951192X.2021.2004618Suche in Google Scholar

5 May, C.; Suchy, L.; Franke, J.; Reitelshöfer, S.: Towards Imaginative Robots: A Generative Pipeline for Simulated Environments. SNE Simulation Notes Europe 35 (2025) 1, S. 61–70 DOI:10.11128/sne.35.tn.1072010.11128/sne.35.tn.10720Suche in Google Scholar

6 Rombach, R.; Blattmann, A.; Lorenz, D.; Esser, P.; Ommer, B.: High-Resolution Image Synthesis with Latent Diffusion Models. In: 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR): IEEE, 2022, S. 10674–10685 DOI:10.1109/CVPR52688.2022.0104210.1109/CVPR52688.2022.01042Suche in Google Scholar

7 Zwingel, M.; May, C.; Kalenberg, M.; Franke, J.: Robotics Simulation – A Comparison of Two State-of-the-Art Solutions.In: Breitenecker, F.; Deatcu, C.; Durak, U.; Körner, A.; Pawletta, T. (Hrsg.):,ASIM SST 2022 Proceedings Langbeiträge, Jul. 2022, S. 171–178 DOI:10.11128/arep.20.a203310.11128/arep.20.a2033Suche in Google Scholar

8 Google DeepMind: Imagen – Our Best Image Generation Model Yet, Engineered for Creativity. Online unter https://deepmind.google/models/imagen [Abruf am 04.07.2025]Suche in Google Scholar

9 OpenAI: Introducing 4o Image Generation. Online unter https://openai.com/index/introducing-4o-image-generation [Abruf am 04.07.2025]Suche in Google Scholar

10 Black Forest Labs: FLUX.1-dev. Online unter https://huggingface.co/black-forest-labs/FLUX.1-dev [Abruf am 29.06.2025]Suche in Google Scholar

11 Black Forest Labs: Announcing Black Forest Labs. Online unter https://bfl.ai/announcements/24-08-01-bfl [Abruf am 29.06.2025]Suche in Google Scholar

12 Labs, B. F.; Batifol, S.; Blattmann, A. et al.: FLUX.1 Kontext: Flow Matching for In-Context Image Generation and Editing in Latent Space. 17.06.2025 DOI:10.48550/arXiv:2506.1574210.48550/arXiv:2506.15742Suche in Google Scholar

13 Stability AI: Stable-Diffusion-3.5-Large. Online unter https://huggingface.co/stabilityai/stable-diffusion-3.5-large [Abruf am 04.07.2025]Suche in Google Scholar

14 Huang, Z.; Boss, M.; Vasishta, A.; Rehg, J. M.; Jampani, V.: SPAR3D: Stable Point-Aware Reconstruction of 3D Objects from Single Images. 08.01.2025 DOI:10.1109/CVPR52734.2025.0157110.1109/CVPR52734.2025.01571Suche in Google Scholar

15 Lai, Z.; Zhao, Y.; Liu, H. et al.: Hunyuan3D 2.5: Towards High-Fidelity 3D Assets Generation with Ultimate Details. 19.06.2025 DOI:10.48550/arXiv:2506.1650410.48550/arXiv:2506.16504Suche in Google Scholar

16 Microsoft: TRELLIS (30.05.2025). Online unter https://github.com/microsoft/TRELLIS [Abruf am 29.06.2025]Suche in Google Scholar

17 Redmon, J.; Divvala, S.; Girshick, R.; Farhadi, A.: You Only Look Once: Unified, Real-Time Object Detection. In: Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR): IEEE, 2016, S. 779–788 DOI:10.1109/CVPR.2016.9110.1109/CVPR.2016.91Suche in Google Scholar

18 Tian, Y.; Ye, Q.; Doermann, D.: YOLOv12: Attention-Centric Real-Time Object Detectors. 18.02.2025 DOI:10.48550/arXiv:2502.1252410.48550/arXiv:2502.12524Suche in Google Scholar

19 Xiang, J.; Lv, Z.; Xu, S. et al.: Structured 3D Latents for Scalable and Versatile 3D Generation. https://arxiv.org/abs/2412.01506 DOI:10.48550/arXiv.2412.0150610.48550/arXiv.2412.01506Suche in Google Scholar

20 NVIDIA: NVIDIA Isaac Sim. Online unter https://developer.nvidia.com/isaac/sim [Abruf am 20.07.2025]Suche in Google Scholar

21 Jocher, G.; Qiu, J.; Chaurasia, A.: Ultralytics YOLO. Online unter https://github.com/ultralytics/ultralytics [Abruf am 08.03.2025]Suche in Google Scholar

Published Online: 2025-10-29
Published in Print: 2025-10-20

© 2025 Walter de Gruyter GmbH, Berlin/Boston, Germany

Heruntergeladen am 4.2.2026 von https://www.degruyterbrill.com/document/doi/10.1515/zwf-2025-1114/html?lang=de
Button zum nach oben scrollen