Home Optimale Produktion dank Künstlicher Intelligenz
Article Open Access

Optimale Produktion dank Künstlicher Intelligenz

  • Eric Brabänder

    Eric Brabänder ist Chief Product Officer bei der Empolis Information Management GmbH. Er ist Diplom-Wirtschaftsingenieur und ist seit über 25 Jahren Führungskraft in den Bereichen Produktmanagement und Marketing von B2B-Software. Zu seinen beruflichen Stationen zählen die Porsche AG, IDS Scheer AG, Software AG und FNT GmbH. Sein KI-Know-how für industrielle Anwendungsfälle bringt er seit 2022 als Vorstand der SmartFactory-KL e.V. ein. Seine Leidenschaft für das Produktmanagement teilt er in zahlreichen Vorträgen sowie als Dozent für das Fach Produktmanagement an der Hochschule Aalen.

    EMAIL logo
Published/Copyright: March 27, 2025

Abstract

Generative Künstliche Intelligenz (generative KI) und Large Language Models (LLMs) werden die Art und Weise, wie wir zukünftig mit Maschinen oder technischen Systemen interagieren, grundlegend verändern. Ihre Fähigkeiten bergen enormes wirtschaftliches Potenzial. Allerdings gibt es, gerade in der Produktion und bei Produktionsprozessen, bestimmte Risiken und Hürden, die es bei der Implementierung entsprechender Anwendungen zu bedenken gilt. Nur in Verbindung mit anderen Technologien der Künstlichen Intelligenz kann die generative KI dazu beitragen, dass Mitarbeiter jederzeit auf vertrauenswürdiges Produktionswissen über den gesamten Produktionsprozess hinweg zugreifen können, und Expertenwissen nachhaltig gesichert werden kann.

Abstract

GenAI and Large Language Models will change the way how we interact with machines or technical systems in the future. Their capabilities harbor enormous economic potential. However, there are certain risks and hurdles that need to be considered with their implementation, especially in production and production processes. Only in conjunction with other artificial intelligence technologies, GenAI is able to ensure that employees have always access to trustworthy production knowledge along the entire production process, and that expert knowledge can be secured long term.

LLMs und Knowledge Graphen

Ein produktiver und sicherer Einsatz der LLMs erfolgt erst durch die Kombination mit Knowledge Graphen und der Retrieval-Augmented Generation, die Ergebnisse und Antworten transparent, nachvollziehbar und vertrauenswürdig macht. Dadurch entstehen leistungsfähige Systeme, die sowohl die Effizienz als auch die Qualität in diesen Bereichen steigern können. Erst dann lässt sich das Potenzial der generativen KI nutzen, um Produktionsprozesse zu optimieren, Innovationen voranzutreiben und die betriebliche Effizienz erheblich zu steigern.

Richtig eingesetzt können dadurch Ausfallzeiten und Ausschuss reduziert, bewährte Vorgehensweisen geteilt sowie die bereichsübergreifende Zusammenarbeit optimiert werden. Diese Faktoren tragen zu einer erheblichen Steigerung der Overall Equipment Effectiveness (OEE) bei.

Über welche Stärken verfügen LLMs?

LLMs verarbeiten Inputs der natürlichen Sprache und ermitteln mit statistischen Verfahren das wahrscheinlich nächstfolgende Wort auf der Grundlage historischer Daten. Aufgrund der gigantischen Datenmengen, mit denen sie trainiert wurden, sind die Ergebnisse sowohl bei der Interpretation von Eingaben als auch bei der Ausgabe von Antworten beeindruckend. Nutzer bekommen den Eindruck, sie kommunizieren mit einer realen Person. Somit können sie Nutzer bei der Suche nach Informationen unterstützen und Inhalte wie z. B. Artikel, Blogbeiträge oder Produktbeschreibungen generieren.

Worin liegen die Schwächen der LLMs?

Die offensichtlichste Schwäche der LLMs ist, dass die genannten „Interpretationen“ häufig vollkommen falsch sind. Vor allem, wenn die gestellte Aufgabe sich erst durch die Ermittlung verschiedener Eingabeparameter korrekt beantworten lässt, ist ein LLM überfordert. Aufgrund ihrer statistikbasierten Architektur tendieren Sprachmodelle zur Erzeugung von Falschinformationen, auch „Halluzinationen“ genannt.

Sie können keine mathematischen Berechnungen durchführen oder korrekte und v. a. replizierbare logische Schlussfolgerungen ziehen (kausales Schließen). Dadurch weisen sie gerade in den fehlerintoleranten technischen Einsatzbereichen Defizite auf. Hinzu kommen die fehlende Nachvollziehbarkeit der vom Modell erzeugten Ergebnisse und die fehlende Angabe von Referenzen auf Artikel oder Dokumente, aus denen das zugrundeliegende Modell die Antworten generiert.

Das sind zum Beispiel einfache inhaltliche Widersprüche in einer Antwort, falsche Ausgaben in Bezug auf die Anfrage, aber auch Falschaussagen oder irrelevante Zusatzinformationen. Oftmals sind die korrekten Fakten von den Falschinformationen nicht sofort unterscheidbar, sodass Anwender jede Aussage eines solchen Systems überprüfen sollten, sofern diese nicht aus eigenen Erfahrungen beurteilbar ist.

Eine weitere Schwäche der LLMs ist der hohe Trainingsaufwand der Modelle und ihr limitiertes Domänenwissen. Das sogenannte Basismodell ist in der Regel ein generisches Modell und verfügt nicht über spezielles Domänenwissen. Dieses muss bei den LLMs meist durch recht aufwendige, energie- und kostenintensive Verfahren im Modellkorpus erweitert oder ergänzt werden. Aus diesem Grund arbeiten zahlreiche Wissenschaftler am Aufbau spezialisierter und auch energieeffizienter LLMs, da sie an Grenzen stoßen. Jedoch sind auch Veränderungen der Realität, die im Modell repräsentiert werden sollen, nicht ohne Aufwand abbildbar. Ein Modell also etwas wieder „vergessen“ zu lassen, ist ebenfalls eine aufwendige Aufgabe.

Ein weiteres Problem ist die Verfügbarkeit von relevanten Daten. Die Leistung der Sprachmodelle hängt stark von den Daten ab, auf denen sie trainiert wurden.

Vertrauenswürdige Anwendungen

Wie beschrieben, sind LLMs nicht dafür geeignet, Fakten zu liefern, sondern passende Texte zu bestimmten Aufgabenstellungen zu generieren – deshalb auch die Bezeichnung „generative KI“. Für vertrauenswürdige und nutzenbringende Anwendungen müssen LLMs mit anderen KI-Verfahren kombiniert werden, wie z. B. Knowledge Graphen und Retrieval Augmented Generation.

Knowledge Graphen

Knowledge Graphen zählen zu den wissensbasierten KI-Methoden und arbeiten so, wie die Menschen denken (Bild 1). Sie eignen sich daher hervorragend zum Aufbau von sogenannten Wissensmodellen. Durch ihre Netzwerkstruktur repräsentieren sie Wissen und bilden Zusammenhänge ab.

Bild 1 Zusammenspiel zwischen RAG mit Knowledge Graphen und LLMs
Bild 1

Zusammenspiel zwischen RAG mit Knowledge Graphen und LLMs

Sie bieten ein logisches Datengerüst, wodurch sich diese klassifizieren lassen. Im Gegensatz zu Taxonomien kann diese Klassifizierung jedoch nicht nur hierarchisch, sondern mehrdimensional erfolgen. Auf Basis der Knowledge-Graph-Technologie können Expertensysteme aufgebaut werden, welche Aufgaben erledigen, für die üblicherweise menschliche Expertise benötigt wird. Dabei kommen verschiedene Denk- und Problemlösungstechniken zum Einsatz, welche dann entsprechende Lösungen ableiten.

Knowledge Graphen führen alle Informationen an einem Ort – der „Single Source of Truth“ – zusammen und kontextualisieren diese in logischen Strukturen, welche die Zusammenhänge der Daten repräsentieren.

Retrieval-Augmented Generation

Retrieval-Augmented Generation ist eine KI-Architektur, die generative KI-Modelle mit abfragebasierten Modellen kombiniert und große Sprachmodelle dahingehend optimiert, dass sie auf eine maßgebliche Wissensbasis außerhalb ihrer Trainingsdatenquellen verweisen, bevor eine Antwort generiert wird.

Retrieval-Augmented Generation (RAG) erweitert die bereits leistungsstarken Funktionen von LLMs auf bestimmte Domains oder die interne Wissensbasis von Unternehmen oder Organisationen, ohne dass das Modell neu trainiert werden muss (Bild 2). Hierzu nutzt das Modell externe Wissensquellen, die beim Training des Sprachmodells nicht zur Verfügung standen.

Bild 2 Beispiel eines Knowledge Graphen
Bild 2

Beispiel eines Knowledge Graphen

In einer zentralen Wissensbasis werden Informationen wie Wissensartikel, Entscheidungsbäume oder Maschinendaten sinnvoll miteinander vernetzt und indexiert. Auf diesen Datenbestand können anschließend verschiedene KI-Verfahren wie Knowledge Graphen oder die semantische Suche angewandt werden. Aufgrund der Tatsache, dass gesicherte und indexierte Informationen in der Wissensbasis abliegen können, liefern dann aber auch LLMs, wie z. B. ChatGPT. qualitativ hochwertige Ergebnisse.

In der Umsetzung werden Anfragen mithilfe eines Knowledge Graphen analysiert und semantisch angereichert. Dadurch wird deutlich, worum es bei der Frage geht und was der Anwender wissen möchte. Danach wird die Frage in die Wissensdatenbank gegeben, die das entsprechende Domänenwissen des Unternehmens oder der Organisation vorhält und die qualitative Grundlage für die Antworten bildet.

Dadurch wird sichergestellt, dass die Anfrage auf eine Wissensbasis trifft, die gesicherte und verlässliche Informationen bereitstellen kann. Im Anschluss wird das LLM genutzt, um Anwendern verständliche und nachvollziehbare Antworten auszuspielen. Somit können Antworten aus gesichertem Unternehmenswissen generiert und die Transparenz über die Herkunft der Informationen gewährleistet werden.

Die Kombination aus LLMs, Knowledge Graphen und der Retrieval-Augmented Generation liefert vertrauenswürdige Anwendungen der KI, mit nachvollziehbaren Ergebnissen. Damit stellt man sicher, dass man die Möglichkeiten der generativen KI auch in der Produktion nutzen kann, um Prozesse zu optimieren, Innovationen voranzutreiben und die betriebliche Effizienz erheblich zu steigern.

Der konkrete Einsatz in der Produktion

Im Fokus jeder Produktion liegt das Ziel, in kurzer Zeit möglichst viele Güter zu produzieren und dabei den Ausschuss zu minimieren – letztlich also die OEE zu maximieren. Schon heute sind Produktionsprozesse durch die Unterstützung in ERP- und MES-Systemen in der Regel hochoptimiert.

Nichtsdestotrotz kommt es auch in den modernsten Produktionsanlagen immer wieder zu Ausfällen und Stillstandzeiten aufgrund ungeplanter Ereignisse. Das können Störungen an Maschinen und Anlagen sein, Einrichtungsaufwände für den nächsten Produktionsauftrag und manchmal auch einfach Wartezeiten auf den Kollegen, der etwas weiß, was seine jüngeren Kollegen noch nicht wissen.

Generative KI kann hier an verschiedenen Stellen helfen, die OEE weiter zu steigern. Initial bei der Dokumentation von Erfahrungen: Sei es die Entstörung durch einen Mitarbeiter aus der Instandhaltung, die bestmögliche Konfiguration eines Werkzeugs für einen bestimmten Produktionsschritt oder die Dokumentation von Ereignissen im Schichtbuch – der Einsatz von LLM kann die Dokumentation der dabei entstehenden Informationen massiv vereinfachen und so dazu beitragen, dass Lösungsinformationen auch für selten auftretende Probleme Eingang in eine zentrale Wissensbasis finden.

Damit Produktionsplaner, Werker und Maschinenbediener diese Informationen auch einfach nutzen können, lassen sich erneut LLMs einsetzen. So können Anwender beispielsweise einfach natürlichsprachlich eine aktuelle Problemsituation beschreiben und das Sprachmodell führt sie im Dialog zu einer ggf. schon dokumentierten Lösung oder bewährten Vorgehensweise. So unterstützt die Künstliche Intelligenz nicht nur in kritischen Ausnahmesituationen, sondern unterstützt als virtueller Kollege bspw. auch bei der Einarbeitung neuer Kollegen.

Dabei ermöglicht der Einsatz von LLMs ohne Mehraufwand die ad-hoc-Übersetzung von Informationen, was die Dokumentation auch in Bereichen verfügbar macht, in denen die Nutzung sonst Sprachbarrieren unterliegen könnte.

Mit Wissensmanagement und KI die Produktion optimieren

Unternehmen des produzierenden Gewerbes sehen sich mit komplexen, variantenreichen Produkten oder Prozessen konfrontiert, die vielfach das Wissen über den gesamten Lebenszyklus ihrer Produkte und ihrer Produktionsprozesse in allen Wertschöpfungsbereichen betreffen. Dieses Wissen steckt in Dokumenten, Datentöpfen oder in den Köpfen der Mitarbeitenden aus den Bereichen F&E, Engineering, Produktion, technischer Vertrieb oder Service. Dieses Wissen zu digitalisieren und mittels KI-Verfahren zu organisieren, zu analysieren und allen verfügbar zu machen, erzeugt zweistellige Produktivitätszuwächse und liefert einen schnellen Return on Investment.

KI ist in der Lage, das gesamte Wissen in der Produktion (z. B. aus ERP- und MES-Systemen, Datenbanken, Unternehmenswikis, Schichtbüchern und Berichten, Best Practices, Wissensartikeln oder Worker-Assistance-Tools) in einem Knowledge Hub zusammenzuführen und Mitarbeitern im richtigen Kontext zur Verfügung zu stellen. Dadurch lassen sich Fehlbedienungen an Anlagen vermeiden, was zu geringeren Ausfällen führt. Sollte dennoch der Schadensfall eintreten, erhalten Mitarbeiter einen sofortigen Zugriff auf Problemlösungen. Im Sinne von Werkerassistenz können auf dieser Basis auch geführte Fehlerdiagnosen Mitarbeiter Schritt für Schritt zur Behebung des Schadens befähigen.

Checklisten bieten die Möglichkeit, Schichtübergaben ganzheitlich zu erfassen und dieses Wissen ebenfalls in die Wissensdatenbank einfließen zu lassen. Mithilfe des RAG-Ansatzes kann dieses Wissen schnell zusammengefasst oder wiedergefunden werden, um Ineffizienzen und Ausschuss zu verringern. Außerdem lassen sich (Standard-)Arbeitsanweisungen und Erfahrungsberichte für alle Produktionsverfahren und Anlagen auf sichere und nutzerfreundliche Weise bereitstellen.

Produktionsmitarbeiter können ihr Wissen und ihre Erfahrung untereinander teilen, sodass Anlagen besser und sicherer konfiguriert werden. Im Zweifel können Herausforderungen zusammen im Team gemeistert und mithilfe der LLMs in Wissensartikeln zusammengefasst werden. KI-gestützte Systeme können darüber hinaus die richtigen Experten anhand ihrer Fähigkeiten identifizieren und bei der Problemlösung miteinbeziehen. Das führt zu einer Verkürzung der Einarbeitung und neue Mitarbeiter können schneller produktiv arbeiten. Mithilfe der Fähigkeiten der LLMs lassen sich Wissensartikel, Schulungsleitfäden und Erfahrungsberichte schnell und einfach im beruflichen Alltag erstellen.

Dank KI kann auch die bereichsübergreifende Zusammenarbeit verbessert werden, weil sie das Wissen zu Fertigungsprozessen auch für andere Bereiche (z. B. Forschung und Entwicklung, Qualitätsmanagement, Service, Montage) entsprechend der jeweiligen Rechte und Rollen verfügbar macht. Das sorgt für eine bessere Abstimmung von Vertrieb und Produktion durch die gemeinsame Datengrundlage sowie für eine Ausrüstung der Produktionsplanung mit allen relevanten Hintergrundinformationen. Die Kollegen anderer Abteilungen können auch ohne das notwendige Fachvokabular Informationen finden, welche für die Erreichung gemeinsamer Ziele hilfreich sind.

Zusammenfassung

Der Einsatz von generativer KI bietet Entscheidungsträgern die Möglichkeit, die Gesamtanlageneffektivität signifikant zu steigern, indem allen Mitarbeitern das richtige Wissen zur Verfügung gestellt wird. Es ist dabei jedoch von besonderer Bedeutung, dass diese statistikbasierten Modelle mit semantischer KI, wie z. B. Knowledge Graphen, verknüpft werden, um auch wirklich gesicherte Informationen zu liefern. In Kombination bieten diese Technologien die ideale Grundlage, um Expertenwissen und Maschineninformationen aus der Produktion zu sichern und den Mitarbeitern oder anderen Abteilungen, wie z. B. der Planung, der Wartung, dem Qualitätsmanagement oder der Entwicklung, im richtigen Kontext schnell und einfach zur Verfügung zu stellen. Der professionelle Einsatz hilft Produktionsleitern, dem Fachkräftemangel entgegenzuwirken, die bereichsübergreifende Zusammenarbeit zu optimieren und letztlich die eigene OEE nachweislich zu steigern.

Ein Beispiel dafür ist Factory-X, ein Leuchtturmprojekt im digitalen Ökosystem Manufacturing-X, das vom Bundesministerium für Wirtschaft und Klimaschutz (BMWK) gefördert wird. Ziel des Projekts ist die Entwicklung eines föderierten Datenraums für produzierende Unternehmen und Produktionsausrüster sowie dessen erfolgreiche Anwendung. Der föderierte Datenraum soll das sichere Teilen von Daten zwischen verschiedenen Akteuren in der Produktion ermöglichen und so die Digitalisierung und KI in der Produktion vorantreiben.

Factory-X setzt dabei auf Lösungen auf, die im Catena-X-Automotive-Network geschaffen wurden, adaptiert diese und/oder schafft branchenspezifische Lösungen für konkrete Anwendungsfälle. Ein Kernanliegen ist es, Interoperabilität zwischen sich herauskristallisierenden domänenspezifischen Datenräumen zu wahren. Und natürlich können über den Datenraum nicht nur Maschinendaten und strukturierte Produktionsaufträge ausgetauscht werden, sondern ebenso gut Erfahrungs- und Anleitungswissen zur Bedienung und Konfiguration von Maschinen oder zu Vorgehensweisen bei der Entstörung. Im Zusammenspiel von verknüpftem Kontextwissen über die Situation und den Auftrag eines Maschinenbedieners und in der Vergangenheit erfasster Anleitungen und Dokumentationen können so beispielsweise auch unerfahrene Werker mit KI-Assistenten durch Arbeitsprozesse geführt werden, die bisher einen erfahrenen Kollegen oder eine ausgiebige Einarbeitungszeit benötigt hätten. So kommen am Ende verschiedene KI-Verfahren in einfach bedienbaren und skalierbaren Anwendungen zusammen, die vor allem bei einem helfen: die Produktivität in der Produktion trotz Kostendruck und Personalmangel sicherzustellen.


Hinweis

Bei diesem Beitrag handelt es sich um einen von den Advisory-Board-Mitgliedern des ZWF-Sonderheftes wissenschaftlich begutachteten Fachaufsatz (Peer-Review).



Tel.: +49 (0) 631 68037-330

About the author

Dipl.-Wirt.-Ing. Eric Brabänder

Eric Brabänder ist Chief Product Officer bei der Empolis Information Management GmbH. Er ist Diplom-Wirtschaftsingenieur und ist seit über 25 Jahren Führungskraft in den Bereichen Produktmanagement und Marketing von B2B-Software. Zu seinen beruflichen Stationen zählen die Porsche AG, IDS Scheer AG, Software AG und FNT GmbH. Sein KI-Know-how für industrielle Anwendungsfälle bringt er seit 2022 als Vorstand der SmartFactory-KL e.V. ein. Seine Leidenschaft für das Produktmanagement teilt er in zahlreichen Vorträgen sowie als Dozent für das Fach Produktmanagement an der Hochschule Aalen.

Published Online: 2025-03-27
Published in Print: 2025-03-20

© 2025 Eric Brabänder, publiziert von De Gruyter

Dieses Werk ist lizensiert unter einer Creative Commons Namensnennung 4.0 International Lizenz.

Articles in the same Issue

  1. Grußwort
  2. Grußwort
  3. Inhalt
  4. Künstliche Intelligenz
  5. Künstliche Intelligenz (KI)
  6. Menschzentrierte Einführung von Künstlicher Intelligenz in Produktion und Engineering
  7. Generative AI and Agentic Architecture in Engineering and Manufacturing
  8. Intelligent Industry
  9. Von Piloten zu skalierbaren Lösungen
  10. KI in Engineering
  11. KI-Anwendungen im Engineering
  12. KI-Adaption in der Produktentwicklung
  13. KI-Transformation im Engineering
  14. Code the Product – Vision für die Produktentstehung der Zukunft
  15. Machine Learning in Transmission Design
  16. AI Enables Data-Driven Product Design
  17. Optimierung von Entwicklungsprozessen durch KI-gestütztes Generatives Engineering und Design
  18. Human-AI Teaming in a Digital Twin Model for Virtual Product Development
  19. Kundenorientierte Innovationspotenziale durch KI
  20. Scheitert Systems Engineering an seiner eigenen Komplexität?
  21. AI-Augmented Model-Based Systems Engineering
  22. Prompt Engineering im Systems Engineering
  23. Sustainable Product Development and Production with AI and Knowledge Graphs
  24. AI-Driven ERP Systems
  25. Optimale Produktion dank Künstlicher Intelligenz
  26. KI in PLM-Systemen
  27. KI in Produktion
  28. Durchblick in der Produktion
  29. Production of the Future
  30. Der Use-Case-First-Ansatz zum Einsatz von Künstlicher Intelligenz in der Produktion
  31. Überwindung der Programmierkluft in der Produktion und Fertigung
  32. Lean Data – Anwendungsspezifische Reduktion großer Datenmengen im Produktionsumfeld
  33. KI-Zuverlässigkeit in der Produktion
  34. KI in der Smart Factory: Warum Standardanwendungen besser sind
  35. Data-Driven Decision-Making: Leveraging Digital Twins for Reprocessing in the Circular Factory
  36. Extended Intelligence for Rapid Cognitive Reconfiguration
  37. Erfahrungsbasierte Bahnoptimierung von Montagerobotern mittels KI und Digitalen Zwillingen
  38. Integration of Machine Learning Methods to Calculate the Remaining Useful Life of Mandrels
  39. AI-Driven Load Sensing for Wind Turbine Operations
  40. ChatPLC – Potenziale der Generativen KI für die Steuerungsentwicklung
  41. Developing and Qualifying an ML Application for MRO Assistance
  42. Applying AI in Supporting Additive Manufacturing Machine Maintenance
  43. Kollaboratives Modelltraining und Datensicherheit
  44. KI-basierte Partikelgrößenbestimmung in Suspensionen
  45. Intelligente Prozessüberwachung für die flexible Produktion
  46. Robuste Bauteilidentifikation mittels digitaler Fingerabdrücke
  47. Herausforderungen der Digitalisierung in der Klebetechnik
  48. Vom Webshop zum Shopfloor
  49. Scoring-Prozess mit Vorhersagemodell
  50. Automatisierte Optimierung von Metamaterialien im Leichtbau
  51. KI-gestützte Prozessoptimierung in der Massivumformung
  52. AI-Supported Process Monitoring in Machining
  53. Federated Learning in der Arbeitsplanung
  54. KI in der Kommissionierung
  55. KI-basiertes Assistenzsystem zur Qualitätskontrolle
  56. Qualitätssteigerung durch Digitalisierung
  57. Qualitative und wirtschaftliche Vorteile des KI-gestützten 8D-Prozesses
  58. KI-gestützte Prognose von Durchlauf- und Lieferzeiten in der Einzel- und Kleinserienfertigung
Downloaded on 3.11.2025 from https://www.degruyterbrill.com/document/doi/10.1515/zwf-2025-0018/html
Scroll to top button