Home Erfahrungsbasierte Bahnoptimierung von Montagerobotern mittels KI und Digitalen Zwillingen
Article Open Access

Erfahrungsbasierte Bahnoptimierung von Montagerobotern mittels KI und Digitalen Zwillingen

  • Christian Plesker

    Christian Plesker, M. Sc., geb. 1994, studierte an der Technischen Universität Darmstadt Maschinenbau im Bachelor und Computational Engineering im Master. Seit November 2021 ist er Wissenschaftlicher Mitarbeiter am Fachgebiet Product Life Cycle Management (PLCM) an der Technischen Universität Darmstadt und betreute dort verschiedene Lehrveranstaltungen im Bereich rechnergestütztes Konstruieren sowie Forschungsprojekte zu Digitale Zwillinge und Künstlicher Intelligenz.

    , Jan Philipp Nothnagel

    Jan Philipp Nothnagel, B. Sc., geb. 1998, studiert Wirtschaftsingenieurwesen mit Schwerpunkt Maschinenbau im Master an der Technischen Universität Darmstadt, wo er zuvor auch seinen Bachelorabschluss in diesem Studiengang erworben hat. Seit 2023 arbeitet er parallel zum Studium im Bereich Konstruktion und Entwicklung bei der SAMSON AG.

    and Benjamin Schleich

    Prof. Dr.-Ing. Benjamin Schleich, geb. 1985, wurde 2017 an der Friedrich-Alexander-Universität (FAU) Erlangen-Nürnberg promoviert und war anschließend mehrere Jahre Oberingenieur und Leiter des Forschungsbereichs für Virtuelle Produktentwicklung und Konstruktionsmethodik am Lehrstuhl für Konstruktionstechnik der FAU Erlangen-Nürnberg. Seit September 2022 ist er Professor und Leiter des Fachgebiets Product Life Cycle Management (PLCM) an der Technischen Universität Darmstadt.

    EMAIL logo
Published/Copyright: March 27, 2025

Abstract

Im Rahmen dieser Arbeit wird ein Ansatz präsentiert, der die Kombination von Digitalem Zwilling und Künstlicher Intelligenz nutzt, um die Bahnplanung eines Knickarmroboters erfahrungsbasiert zu optimieren. Zu diesem Zweck wird ein Autoencoder eingesetzt, um die Daten zu analysieren und mögliche Anomalien im Prozess zu erkennen und zu gewichten. Darauf aufbauend wird ein Erfahrungsraum aufgespannt, welcher die Grundlage für eine optimierte Bahnplanung der Bewegung des Roboterarms bildet.

Abstract

This work presents an approach that uses the combination of digital twin and artificial intelligence to optimize the path planning of an articulated robot based on experience. For this purpose, an autoencoder analyzes the data and detects and weights possible anomalies in the process. Based on this, an experience space is created, which forms the basis for optimized path planning of the robot arm‘s movement.

Einleitung

Gegenwärtige Produktionsprozesse sind aufgrund der steigenden Komplexität der Produkte zunehmend kompliziert und anspruchsvoll. Der Einsatz moderner Maschinen, die sich sowohl durch eine hohe Flexibilität als auch durch eine hohe Wiederholgenauigkeit auszeichnen, ist von essenzieller Bedeutung. Die durch Industrie 4.0 geprägten Maschinen stellen nicht mehr einfache mechatronische Systeme dar, sondern sind als cyber-physische Systeme zu klassifizieren [1]. Diese zeichnen sich durch eine immense Verfügbarkeit von Daten aus und weisen zudem einen hohen Vernetzungsgrad auf [2]. Dies eröffnet ein enormes Potenzial zur Analyse und Optimierung der Systeme, dessen Nutzung jedoch oft noch nicht hinreichend strukturiert ist. Eine Lösung, welche sich aus Industrie 4.0 ergab, lautet „Digitaler Zwilling“. Die Digitalen Zwillinge bieten eine transparente und strukturierte Abbildung der Daten in einer virtuellen Repräsentation der physischen Maschinen. In Kombination mit neu aufkommenden Werkzeugen, insbesondere der Künstlichen Intelligenz, eröffnet sich eine ideale Chance zur effizienten Datenanalyse und -nutzung in einer Vielzahl von Anwendungsgebieten. Im Folgenden wird anhand einer In-Orbit-Kleinsatelliten-Fabrik aufgezeigt, wie Künstliche Intelligenz genutzt werden kann, um die hochflexible Bahnplanung eines Knickarmroboters mittels Digitalen Zwilling erfahrungsbasiert zu optimieren.

Stand der Technik

Knickarmroboter haben sich zu einem integralen Bestandteil hochautomatisierter Produktionsstraßen entwickelt. Ihre hochflexible Einsetzbarkeit resultiert aus der Fähigkeit, sich mit bis zu sechs Achsen an jeden Punkt im Raum zu bewegen. Diese Flexibilität ist jedoch mit einigen Herausforderungen verbunden. Ein exakt geregeltes Zusammenspiel der Gelenke und Motoren ist erforderlich, um eine hohe Wiederholgenauigkeit zu erreichen. Dies stellt nicht nur technisch, sondern auch planerisch eine Herausforderung dar, die es zu bewältigen gilt. Die Bahn des Tool-Center-Point wird in der Regel durch die Steuerungssoftware unter Berücksichtigung der vorgegebenen Bedingungen berechnet. Dabei können unbedachte Einwirkungen oder schlecht geplante Kombinationen von Arbeitsschritten durch den Anwender negative Auswirkungen auf den Prozess und die Lebensdauer der Maschine haben. Ein Produktionsstillstand kann mit beträchtlichen Kosten verbunden sein, weshalb eine präzise Analyse und langwierige Tests mit der Maschine selbst schwierig oder oft nicht möglich sind. Diese Problematik lässt sich mittels Digitalen Zwilling lösen.

Digitaler Zwilling

Ein Digitaler Zwilling stellt die virtuelle Repräsentation einer Produktinstanz und deren Services dar [3]. Zudem erweitert der Digitalen Zwilling dies durch eine bidirektionale Kommunikation mit dem abzubildenden Objekt. Infolgedessen ist er nicht nur in der Lage, Daten zu empfangen, sondern auch Daten zu senden, wodurch eine Steuerung möglich ist. Das generelle Prinzip des Digitalen Zwillings kann zudem auf ganze Systeme oder Prozesse übertragen werden. In einem Digitalen Zwilling liegen die Daten und Informationen, wie zum Beispiel die Geometriemodelle, aus der Produktentwicklung vor, welche kontinuierlich mit Daten aus der Produktion und dem Betrieb angereichert werden. Aufgrund der bidirektionalen Verbindung lassen sich dann nicht nur Überwachungs- und Analyseprozesse realisieren, sondern auch eine aktive Einflussnahme, beispielsweise in Form von Optimierungsmaßnahmen. Um eine Optimierung der cyber-physischen Systeme effizient vorzunehmen, werden Tools benötigt, welche in der Lage sind, die großen, anfallenden Datenmengen zu verarbeiten und zu analysieren. Hierfür eignen sich insbesondere Ansätze der Künstlichen Intelligenz und des Maschinellen Lernens [4].

Künstliche Intelligenz

Künstliche Intelligenz beschreibt ein Teilgebiet der Informatik, das sich mit der Entwicklung von Theorien, Methoden, Techniken und Anwendungssystemen zur Simulation, Erweiterung und Ergänzung der menschlichen Intelligenz beschäftigt [5]. Maschinelles Lernen beschreibt eine Methode zur Implementierung von Künstlicher Intelligenz, welche Maschinen dazu befähigt, aus Daten zu lernen [6]. Ein Beispiel hierfür sind Neuronale Netze, welche aus mehreren Schichten mit einer Vielzahl an miteinander verbundenen Neuronen bestehen. Diese Netze können mittels Daten trainiert werden, um einen Zusammenhang zwischen Eingangs- und Ausgangsdaten abzubilden. Für komplexere Aufgaben werden Neuronale Netze mit mehreren verdeckten Schichten und einer signifikanten Anzahl an Neuronen benötigt. Diese Kategorie der Neuronalen Netze und deren Anlernen wird auch als Deep Learning bezeichnet [7]. Der Einsatz von Künstlicher Intelligenz im Maschinenbau umfasst eine Vielzahl von Anwendungsbereichen, darunter vorausschauende Instandhaltung, Energieverbrauchsprognose, physikalische Sicherheit, Automatisierung, Qualitätskontrolle, Cybersicherheit und die Prozessoptimierung.

Prozessoptimierung

Für die Prozessoptimierung am Beispiel des Knickarmroboters werden das Datenpotential der virtuellen Repräsentation des Digitalen Zwillings und die effiziente Datenverarbeitung mittels Künstlicher Intelligenz kombiniert. Als Anwendungsfall wird die In-Orbit-Kleinsatellitenfabrik aus dem Forschungsprojekt ACOR [8] betrachtet. Ziel des Forschungsprojektes war es, eine autonome Kleinsatellitenfabrik im Orbit mittels Künstlicher Intelligenz gegen das mögliche Auftreten von Fehlern abzusichern. Die Kleinsatellitenfabrik umfasst einen Knickarmroboter, der im Orbit Cube-Satelliten, auch als CubeSat bezeichnet, je nach Konfiguration aus verschiedenen Modulen zusammenbauen und aussenden soll. Um die langfristige Zuverlässigkeit der Fabrik zu gewährleisten, ist es erforderlich, aus auftretenden Fehlern im Montageprozess zu lernen und den Prozess auf Basis von Erfahrungswerten zu optimieren. Da während des Betriebes im Orbit kein menschliches Einschreiten möglich ist, muss ein Ansatz gewählt werden, welcher auch auf unvorhersehbare Fehler reagieren kann, also Anomalien im Generellen. Das Konzept dafür kann Bild 1 entnommen werden.

Bild 1 Konzept für den Einsatz von KI-Methoden in der Fertigung
Bild 1

Konzept für den Einsatz von KI-Methoden in der Fertigung

Wie der Abbildung zu entnehmen ist, werden durch den Digitalen Zwillingen Prozessdaten vom Roboterarm aufgenommen und mittels KI-Methoden analysiert. Ziel ist es, Anomalien in den Daten zu erkennen und diese als Basis für mögliche Optimierungen zu nutzen. Fokussiert wurde sich dabei auf Anomalien, welche bei der Montage des CubeSat auftreten. Mögliche vorhersehbare Anomalien sind beispielsweise das Nichterreichen der vorgegebenen Position, Kollision, Widerstand oder das Erreichen von Schutzzonen oder Singularitäten. Darüber hinaus können durch ungünstige Betriebszustände, wie z. B. einseitige Belastung, falsche Vorgaben, Bewegungen oder Verschleiß, Anomalien in der Fabrik entstehen, welche gegenwärtig noch nicht abgeschätzt oder bedacht wurden. Um im späteren Betrieb auf Anomalien eingehen zu können, wird die Bahn des Roboters nicht statisch vorgegeben, sondern kann dynamisch angepasst werden. Auf Veränderungen im Bauraum, zum Beispiel durch verbogene Teile, welche im Laufe des Betriebs der Belastung nachgegeben haben und nun nicht mehr vorhanden sind, kann so dynamisch reagiert und diese langfristig durch die gemachten Erfahrungen mit eingeplant werden. Darüber hinaus kann durch die Anpassung der Bahnen des Roboterarms auch Gelenke mit hohem Verschleiß entlastet werden. Voraussetzung für diese Vorgehensweise ist jedoch zunächst die Identifizierung der Fehler und resultierender Anomalien.

Fehlerdetektion

Ein typischer Ansatz der Fehlerdetektion ist es, ein Neuronales Netz auf bestimmte Fehler anzulernen und dann diese erkennen zu lassen. Aufgrund der Tatsache, dass nie alle Fehlerursachen vollständig bekannt oder bedacht werden können, muss für den Einsatz in einer autonomen Fabrik ein allgemeiner Ansatz gewählt werden, der auch unbekannte Fehler detektieren kann. Ein geeigneter Ansatz besteht in der Prüfung von Betriebsdaten auf generelle Abweichungen anstelle der Analyse konkreter Fehler. Für die Analyse von Daten von Roboterarmen aus dynamisch geplanten Bahnen wird jedoch ein hohes Maß an Transferfähigkeit des Analyse-Tools gefordert, da sich die Bahnen über die Zeit anpassen und vollständig verändern können. Eine mögliche Lösung bieten KI-Werkzeuge wie Autoencoder.

Autoencoder

Autoencoder bestehen aus zwei zusammengesetzten Neuronalen Netzen, dem Encoder und dem Decoder (Bild 2) [9]. Der Encoder reduziert die Dimension der Daten auf ein repräsentatives Minimum, während der Decoder versucht, die Originaldatei aus der komprimierten Form wiederherzustellen. Durch das Verfahren des Deep Learning werden die Daten auf die wesentlichen Merkmale reduziert. Übertragen auf den Knickarmroboter können so die wesentlichen Merkmale einer Bewegung in den Daten eines Roboterarms sichtbar gemacht werden (Bild 3). In der Abbildung werden die während des Betriebes eines UR5e-Roboterarms aufgenommenen Werte des Kraft-Momenten-Sensors in Blau dargestellt. Die Daten zeigen drei signifikante Spitzen, die auf Kollisionen des Roboterarms mit Hindernissen zurückzuführen sind (siehe rote Kästen). Die rekonstruierten Daten des Autoencoders sind in Orange dargestellt. Autoencoder werden auf das Abbilden von Daten im Normalbetrieb trainiert und sind in der Lage, die Hauptmerkmale zu extrahieren. Werte, die durch Anomalien vom angelernten Verhalten differieren, können daher weniger präzise vom Autoencoder abgebildet werden. Durch den Vergleich der rekonstruierten und originalen Werte werden dann Abweichungen von den erwarteten Hauptmerkmalen und damit Anomalien erkannt. Für das Training des Autoencoders besteht die Möglichkeit, die Daten über den Digitalen Zwilling zu erfassen. Digitale Zwillinge haben hier den Vorteil, nicht nur auf Sensorwerte, sondern auch auf Simulationen und Verhaltensmodelle zur Datengenerierung zurückgreifen zu können. Im Rahmen der Anomalie-Erkennung in der Bewegung eines Knickarmroboters können alle Sensorwerte, in denen Anomalien detektiert werden sollen, herangezogen werden. Es sei darauf hingewiesen, dass für das Training des Autoencoders ausschließlich reguläre Daten ohne Fehlfunktionen aus dem Betrieb der Maschine benötigt werden. Dies hat den signifikanten Vorteil, dass eine Beschädigung der Maschine beim Aufnehmen von Fehlerdaten vermieden wird. Für den Autoencoder können verschiedene Neuronale Netze im En- und Decoder eingesetzt werden. Im gegeben Bespiel in Bild 2 zu sehen wurde beispielsweise ein Neuronales Netz mit einem „Langem Kurzzeitgedächtnis“ (LSTM) eingesetzt, welches somit in der Lage sind, Informationen aus vorangegangenen Daten zu berücksichtigen [10]. Zur Abbildung der Daten aus dem Kraft-Momenten-Sensor in Bild 3 wurde ein Autoencoder mit 128, 64 und 32 Neuronen in den Schichten verwendet. Es besteht jedoch die Möglichkeit, die Autoencoder je nach Datensatz und Verhalten in den Daten anzupassen, um eine Optimierung der Abbildung der wesentlichen Merkmale zu erreichen. Darüber hinaus ist eine sorgfältige Konfiguration des Netzes erforderlich, um eine effektive Abbildung der Merkmale bei gleichzeitig schlechten Abbildungseigenschaften der Anomalien zu gewährleisten. Die Güte des Datensatzes determiniert die Effektivität des Lernprozesses des Autoencoders. Ein Nachteil der Autoencoder besteht darin, dass auch natürlich auftretende Datenpunkte, wie beispielsweise Spitzen in der Spannung bei Richtungswechseln, nur schwer abzubilden sind. Im Rahmen des Abgleichs der rekonstruierten Werte werden diese ebenfalls im Differenzbetrag sichtbar sein. Die Erkennung von Anomalien erfordert somit den Einsatz von Filtern, zum Beispiel gegen Rauschen, oder Schwellenwerten, um tatsächliche Anomalien herauszufiltern. Um eine möglichst hohe Echtzeitfähigkeit zu erreichen, wird nicht die gesamte Zeitreihe simultan analysiert, sondern nur Abschnitte. Dies kann durch sogenannte „Sliding Windows“ erfolgen. Das Verschieben von Fenstern auf einer Zeitreihe ermöglicht eine Zerlegung in eine Vielzahl von Zeitreihen [11]. Die Überlappung der Fenster kann zur Verifizierung von Anomalien genutzt werden, da die Daten der Anomalie so in mehreren Fenstern auftreten. Basierend auf der Stärke der detektierten Abweichungen kann den Anomalien ein Wert zugewiesen werden. Ein Beispiel für dieses Verfahren wurde auch von Chen, Lui et al. [12] beschrieben. Um den Prozess mittels der identifizierten Anomalie zu optimieren, ist es von entscheidender Bedeutung, die Erkenntnisse aus den Fehlern zu speichern.

Bild 2 Architektur eines Autoencoders mit Encoder und Decoder
Bild 2

Architektur eines Autoencoders mit Encoder und Decoder

Bild 3 Kollisionsanomalien in den Daten eines Kraft-Momentsensors eines UR5e-Roboterarms
Bild 3

Kollisionsanomalien in den Daten eines Kraft-Momentsensors eines UR5e-Roboterarms

Fehlerspeicherung

Alle Fehler, die im Betrieb eines Knickarm-Roboters auftreten, besitzen eine räumliche Komponente, die im Bewegungsraum des Roboterarms lokalisiert werden kann. Im Weiteren wird für den Knickarmroboter die Abbildung des Werkzeugmittelpunktes betrachtet. Zusätzlich zu den räumlichen Komponenten sollte eine Gewichtung des Fehlers erfolgen, um dessen Kritikalität zu ermitteln. Im vorliegenden Beispiel der Kollisionsanomalien besteht die Möglichkeit, die Schwere der Kollision sowie der daraus resultierenden Folgen zu gewichten. Dies ist für die spätere Optimierung von Bedeutung, da auf diese Weise die Relevanz des Fehlers bestimmt werden kann. Die gespeicherten Fehlerpositionen und deren Gewichtung stellen die Erfahrung des Roboterarms dar, welche als Basis für die weitere Bahnplanung und Optimierung genutzt werden kann.

Optimierung

Der Erfahrungsraum, der sich aus der Speicherung der Fehler und ihrer Gewichtung im Raum ergibt, stellt den Ausgangspunkt für die betrachtete Optimierungsstrategie dar. Für die Optimierung wird der Bewegungsraum des Roboterarms in Voxel unterteilt. Je feiner die Unterteilung, desto genauer ist die Möglichkeit, die Fehlerstelle im Bewegungsraum exakt abzubilden, allerdings steigt damit auch die benötigte Rechenleistung. Die einzelnen Voxel besitzen die Gewichtung des Erfahrungsraums und können als Teil eines Potentialfeldes aufgefasst werden. Durch diese Darstellung der Fehler im Raum wird die Optimierung der Bahn auf ein Minimierungsproblem reduziert. Bei der Bahnplanung können nun Potentialfeldalgorithmen [13] angewendet werden, um die Bahn mit der kleinsten Gewichtung durch den Voxelraum zu finden (Bild 4). Voxel mit einem höheren Fehlergewicht werden vermieden und Voxel mit einem niedrigeren Fehlergewicht bevorzugt. Dadurch werden Positionen in der Bahn vermieden, an denen Fehler auftreten. Da nicht jeder Fehler zwangsläufig auf eine Position reduziert werden kann, sollte der Erfahrungsraum nach jedem Prozess weiter aktualisiert werden. Fehlerfreie Prozesse können den Wert eines Voxels wieder bis auf den Ausgangswert reduzieren, während fehlerhafte Prozesse den Wert weiter erhöhen. Fehler, welche an eine Stelle gebunden sind, werden über Zeit in der Abbildung bei Wiederauftritt verstärkt, während einmalige Fehler wieder verschwinden können. Der hier beschriebene Ansatz weist allerdings auch Nachteile auf. Diese resultieren daraus, dass die exakte Geometrie, in der Fehler im Raum auftreten können, zum Beispiel bei einem Kollisionsobjekt im Raum, oft erst nach einigen aufgezeichneten Kollisionen vollständig abgebildet werden kann. Dies ist darauf zurückzuführen, dass es sich bei Fehlern häufig um mehrere Voxel betreffende Ereignisse handelt. Nach dem Hinzufügen neuer Erfahrungswerte in den Raum sollte zunächst eine Simulation der neuen Bahn und eine Bewertung derselben erfolgen, da eine unvollständige Abbildung von Fehlern zu einer Verschlechterung der Bahn führen kann. Generell ist der Erfolg des Ansatzes maßgeblich von der Robustheit der Fehlererkennung abhängig. Die zentrale Frage, die sich in diesem Kontext stellt, ist, inwiefern die Fehlererkennung und -klassifizierung zuverlässig erfolgt. Dabei gilt: Je exakter die räumlich bedingten Fehler bestimmt werden, desto besser ist die Lernerfahrung des Roboterarms. Eine unpräzise Bestimmung oder falsche Klassifizierung der Fehler kann hingegen zu einer Verschlechterung anstatt einer Optimierung führen. In diesem Zusammenhang bietet sich eine Anbindung zum Digitalen Zwilling an. Die Simulationsfähigkeiten des Digitalen Zwillings ermöglichen eine Überprüfung und Legitimierung von Änderungen. In der Langzeitperspektive ist es durch den Ansatz möglich, dass ein Knickarmroboter aus Fehlern lernt und ungünstige oder fehlerhafte Zustände vermeidet.

Bild 4 Vereinfachtes 2D-Beispiel einer Bahnplanung mittels eines Potenzialfelds
Bild 4

Vereinfachtes 2D-Beispiel einer Bahnplanung mittels eines Potenzialfelds

Zusammenfassung und Ausblick

Die virtuelle Repräsentation sowie die vorliegenden Daten eines Digitalen Zwillings bilden eine ideale Basis für den Einsatz von Künstlicher Intelligenz. Künstliche Intelligenz ist imstande, große Datenmengen effizient zu filtern und zu analysieren, wie anhand eines Autoencoders veranschaulicht wurde. Der Einsatz eines Autoencoders ermöglicht die Extraktion wesentlicher Merkmale aus Zeitreihendaten, woraus sich mittels Abgleich Anomalien erkennen lassen. In Systemen mit dynamischer Bahnplanung können auf diese Weise räumliche Fehler, wie Kollisionen, erkannt, abgebildet und ein langfristiges Wiederauftreten vermieden werden. Der dargestellte Ansatz ist in hohem Maße von der Genauigkeit der Fehlererkennung abhängig und sollte durch einen Digitalen Zwilling, beispielsweise durch Simulationen, abgesichert werden.

Um die Robustheit der Optimierung zu erhöhen, ist eine weitere Untersuchung erforderlich, um die Fehlererkennung durch Filterung der Daten zu verbessern. Des Weiteren kann der Einsatz weiterer Neuronaler Netze zur Klassifizierung nach der Erkennung der Anomalien in Erwägung gezogen werden, um die Fehlerklasse zu präzisieren. Ein weiterer Ansatz könnte die Betrachtung der gesamten Pose des Knickroboterarms anstelle des Werkzeugmittelpunktes sein, um noch besser die Ursache des Fehlers im Raum abzubilden.


Hinweis

Bei diesem Beitrag handelt es sich um einen von den Advisory-Board-Mitgliedern des ZWF-Sonderheftes wissenschaftlich begutachteten Fachaufsatz (Peer-Review).



Tel.: +49 (0) 6151 16-21791

Funding statement: Die hier vorgestellten Ergebnisse und Erkenntnisse aus dem ACOR- Projekt wurden vom Bundesministerium für Wirtschaft und Klimapolitik (BMWK) unter der Projektnummer 50RP2240A-C gefördert.

About the authors

Christian Plesker

Christian Plesker, M. Sc., geb. 1994, studierte an der Technischen Universität Darmstadt Maschinenbau im Bachelor und Computational Engineering im Master. Seit November 2021 ist er Wissenschaftlicher Mitarbeiter am Fachgebiet Product Life Cycle Management (PLCM) an der Technischen Universität Darmstadt und betreute dort verschiedene Lehrveranstaltungen im Bereich rechnergestütztes Konstruieren sowie Forschungsprojekte zu Digitale Zwillinge und Künstlicher Intelligenz.

Jan Philipp Nothnagel

Jan Philipp Nothnagel, B. Sc., geb. 1998, studiert Wirtschaftsingenieurwesen mit Schwerpunkt Maschinenbau im Master an der Technischen Universität Darmstadt, wo er zuvor auch seinen Bachelorabschluss in diesem Studiengang erworben hat. Seit 2023 arbeitet er parallel zum Studium im Bereich Konstruktion und Entwicklung bei der SAMSON AG.

Prof. Dr.-Ing. habil. Benjamin Schleich

Prof. Dr.-Ing. Benjamin Schleich, geb. 1985, wurde 2017 an der Friedrich-Alexander-Universität (FAU) Erlangen-Nürnberg promoviert und war anschließend mehrere Jahre Oberingenieur und Leiter des Forschungsbereichs für Virtuelle Produktentwicklung und Konstruktionsmethodik am Lehrstuhl für Konstruktionstechnik der FAU Erlangen-Nürnberg. Seit September 2022 ist er Professor und Leiter des Fachgebiets Product Life Cycle Management (PLCM) an der Technischen Universität Darmstadt.

  1. Nutzungshinweis KI

    Während der Erstellung dieser Arbeit haben die Autoren DeepL, eine Künstliche Intelligenz, genutzt, um die Überarbeitung des Stils und des Sprachgebrauchs zu unterstützen. Nach der Nutzung dieses Tools/Dienstes haben die Autoren den Inhalt nach Bedarf überprüft und überarbeitet und übernehmen die volle Verantwortung für den Inhalt der Veröffentlichung.

Literatur

1 Lee, E. A.: CPS Foundations. In: Proceedings of the 47th Design Automation Conference, DAC 2010, Anaheim 2010 DOI:10.1145/1837274.183746210.1145/1837274.1837462Search in Google Scholar

2 Baheti, R.; Gill, H.: Cyber-physical Systems. The Impact of Control Technology 12 (2011) 1, S. 161–166Search in Google Scholar

3 Stark, R.; Anderl, R.; Thoben, K.-D.; Wartzack, S.: WiGeP-Positionspapier: „Digitaler Zwilling“. Zeitschrift für wirtschaftlichen Fabrikbetrieb ZWF 115 (2020), Sonderheft Digitaler Zwilling, S. 47–50 DOI:10.3139/104.11231110.3139/104.112311Search in Google Scholar

4 Paramesha, M.; Liladhar Rane, N.; Rane, J.: Big Data Analytics, Artificial Intelligence, Machine Learning, Internet of Things, and Blockchain for Enhanced Business Intelligence. 2024 DOI:10.5281/zenodo.1282732310.5281/zenodo.12827323Search in Google Scholar

5 Li, J.: Cyber Security Meets Artificial Intelligence: a Survey. Frontiers of Information Technology & Electronic Engineering 19 (2018) 12, S. 1462–1474 DOI:10.1631/FITEE.180057310.1631/FITEE.1800573Search in Google Scholar

6 Azambuja, A. J. G. de; Plesker, C.; Schützer, K. et al.: Artificial Intelligence-Based Cyber Security in the Context of Industry 4.0 – A Survey. Electronics 12 (2023) 8 DOI:10.3390/electronics1208192010.3390/electronics12081920Search in Google Scholar

7 Alom, M. Z.; Taha, T. M.; Yakopcic, C. et al.: A State-of-the-Art Survey on Deep Learning Theory and Architectures. Electronics 8 (2019) 3 DOI:10.3390/electronics803029210.3390/electronics8030292Search in Google Scholar

8 Mühlbauer, M. S.; Leutert, F.; Plesker, C. et al.: AI-based Robust and Failure-Tolerant Processes for In-Orbit Manufacturing of Modular Small Satellites. 75th International Astronautical Congress, 2024 DOI:10.52202/078372-001010.52202/078372-0010Search in Google Scholar

9 Li, P.; Pei, Y.; Li, J.: A Comprehensive Survey on Design and Application of Autoencoder in Deep Learning. Applied Soft Computing 138 (2023) 7553 DOI:10.1016/j.asoc.2023.11017610.1016/j.asoc.2023.110176Search in Google Scholar

10 Hochreiter, S.; Schmidhuber, J.: Long Shortterm Memory. Neural Computation 9 (1997) 8, S. 1735–1780 DOI:10.1162/neco.1997.9.8.173510.1162/neco.1997.9.8.1735Search in Google Scholar PubMed

11 Rebbapragada, U.; Protopapas, P.; Brodley, C. E.; Alcock, C.: Finding Anomalous Periodic Time Series. Machine Learning 74 (2009) 3, S. 281–313 DOI:10.1007/s10994-008-5093-310.1007/s10994-008-5093-3Search in Google Scholar

12 Chen, T.; Liu, X.; Xia, B. et al.: Unsupervised Anomaly Detection of Industrial Robots Using Sliding-Window Convolutional Variational Autoencoder. IEEE Access 8 (2020), S. 47072–47081 DOI:10.1109/ACCESS.2020.297789210.1109/ACCESS.2020.2977892Search in Google Scholar

13 Khatib, O.: Real-time Obstacle Avoidance for Manipulators and Mobile Robots. IEEE Transactions on Systems Man and Cybernetics 19(1989) 5, S. 1179–1187 DOI:10.1109/21.4403310.1109/21.44033Search in Google Scholar

Published Online: 2025-03-27
Published in Print: 2025-03-20

© 2025 Christian Plesker, Jan Philipp Nothnagel und Benjamin Schleich, publiziert von De Gruyter

Dieses Werk ist lizensiert unter einer Creative Commons Namensnennung 4.0 International Lizenz.

Articles in the same Issue

  1. Grußwort
  2. Grußwort
  3. Inhalt
  4. Künstliche Intelligenz
  5. Künstliche Intelligenz (KI)
  6. Menschzentrierte Einführung von Künstlicher Intelligenz in Produktion und Engineering
  7. Generative AI and Agentic Architecture in Engineering and Manufacturing
  8. Intelligent Industry
  9. Von Piloten zu skalierbaren Lösungen
  10. KI in Engineering
  11. KI-Anwendungen im Engineering
  12. KI-Adaption in der Produktentwicklung
  13. KI-Transformation im Engineering
  14. Code the Product – Vision für die Produktentstehung der Zukunft
  15. Machine Learning in Transmission Design
  16. AI Enables Data-Driven Product Design
  17. Optimierung von Entwicklungsprozessen durch KI-gestütztes Generatives Engineering und Design
  18. Human-AI Teaming in a Digital Twin Model for Virtual Product Development
  19. Kundenorientierte Innovationspotenziale durch KI
  20. Scheitert Systems Engineering an seiner eigenen Komplexität?
  21. AI-Augmented Model-Based Systems Engineering
  22. Prompt Engineering im Systems Engineering
  23. Sustainable Product Development and Production with AI and Knowledge Graphs
  24. AI-Driven ERP Systems
  25. Optimale Produktion dank Künstlicher Intelligenz
  26. KI in PLM-Systemen
  27. KI in Produktion
  28. Durchblick in der Produktion
  29. Production of the Future
  30. Der Use-Case-First-Ansatz zum Einsatz von Künstlicher Intelligenz in der Produktion
  31. Überwindung der Programmierkluft in der Produktion und Fertigung
  32. Lean Data – Anwendungsspezifische Reduktion großer Datenmengen im Produktionsumfeld
  33. KI-Zuverlässigkeit in der Produktion
  34. KI in der Smart Factory: Warum Standardanwendungen besser sind
  35. Data-Driven Decision-Making: Leveraging Digital Twins for Reprocessing in the Circular Factory
  36. Extended Intelligence for Rapid Cognitive Reconfiguration
  37. Erfahrungsbasierte Bahnoptimierung von Montagerobotern mittels KI und Digitalen Zwillingen
  38. Integration of Machine Learning Methods to Calculate the Remaining Useful Life of Mandrels
  39. AI-Driven Load Sensing for Wind Turbine Operations
  40. ChatPLC – Potenziale der Generativen KI für die Steuerungsentwicklung
  41. Developing and Qualifying an ML Application for MRO Assistance
  42. Applying AI in Supporting Additive Manufacturing Machine Maintenance
  43. Kollaboratives Modelltraining und Datensicherheit
  44. KI-basierte Partikelgrößenbestimmung in Suspensionen
  45. Intelligente Prozessüberwachung für die flexible Produktion
  46. Robuste Bauteilidentifikation mittels digitaler Fingerabdrücke
  47. Herausforderungen der Digitalisierung in der Klebetechnik
  48. Vom Webshop zum Shopfloor
  49. Scoring-Prozess mit Vorhersagemodell
  50. Automatisierte Optimierung von Metamaterialien im Leichtbau
  51. KI-gestützte Prozessoptimierung in der Massivumformung
  52. AI-Supported Process Monitoring in Machining
  53. Federated Learning in der Arbeitsplanung
  54. KI in der Kommissionierung
  55. KI-basiertes Assistenzsystem zur Qualitätskontrolle
  56. Qualitätssteigerung durch Digitalisierung
  57. Qualitative und wirtschaftliche Vorteile des KI-gestützten 8D-Prozesses
  58. KI-gestützte Prognose von Durchlauf- und Lieferzeiten in der Einzel- und Kleinserienfertigung
Downloaded on 7.9.2025 from https://www.degruyterbrill.com/document/doi/10.1515/zwf-2024-0143/html
Scroll to top button