Home Kalibriermodellerstellung und Merkmalsselektion für die mikromagnetische Materialcharakterisierung mittels maschineller Lernverfahren
Article Open Access

Kalibriermodellerstellung und Merkmalsselektion für die mikromagnetische Materialcharakterisierung mittels maschineller Lernverfahren

  • Felix Wittich

    Felix Wittich, M. Sc., ist wissenschaftlicher Mitarbeiter am Fachgebiet Mess- und Regelungstechnik der Universität Kassel. Seine Forschungsschwerpunkt sind datengetriebene Modellierung, Maschinelles Lernen und Systemidentifikation.

    EMAIL logo
    and Andreas Kroll

    Univ.-Prof. Dr.-Ing. Andreas Kroll ist Leiter des Fachgebiets Mess- und Regelungstechnik der Universität Kassel. Seine Forschungsschwerpunkte sind nichtlineare Identifikations- und Regelungsmethoden, Computational Intelligence, Fernmesstechnik und Sensordatenfusion.

Published/Copyright: October 10, 2025

Zusammenfassung

Der industrielle Echtzeiteinsatz des zerstörungsfreien Prüfverfahrens der mikromagnetischen Materialcharakterisierung bietet ein großes Potenzial für die Analyse oberflächennaher Werkstückeigenschaften. Neben einer möglichen Zeit- und Kostenreduktion durch die direkte Integration von Prüfverfahren in den Bearbeitungsprozess, die bisher nur offline durchführbar war, ermöglicht dies eine Überwachung und gezielte Regelung relevanter Werkstückeigenschaften im laufenden Prozess. Eine zentrale Herausforderung beim Einsatz mikromagnetischer Materialcharakterisierungsverfahren (MMV) ist dabei auch auf Grund kleiner Referenzdatensätze die Kalibriermodellerstellung. Die MMV können beispielsweise bei der Prozessdatenerfassung für die Prozessparameteroptimierung in der Fertigung eingesetzt werden, ohne dabei aufwendige ex-process Referenzmessungen durchführen zu müssen. In diesem Beitrag wird ein datengetriebener Ansatz zur Kalibriermodellerstellung für die mikromagnetische Materialcharakterisierung vorgestellt, bei dem Gaußprozessregression (GPR) mit verschiedenen Verfahren zur Merkmalsselektion kombiniert wird. Die vorgestellte Methodik wird anhand eines industriellen Hartdrehprozesses evaluiert und im Hinblick auf ihre Leistungsfähigkeit gegenüber klassischen Verfahren wie multipler linearer Regression (MLR) bewertet.

Abstract

The industrial real-time application of the non-destructive testing method of micromagnetic material characterization offers great potential for the analysis of near-surface workpiece properties. In addition to possible reductions in time and cost through the direct integration of testing methods into the machining process, which so far has only been possible offline, this enables monitoring and targeted control of relevant workpiece properties during the ongoing process. A central challenge in the application of micromagnetic material characterization methods (MMV), also due to small reference datasets, is the development of calibration models. MMV can, for example, be applied in process data acquisition for process parameter optimization in manufacturing, without the need for complex ex-process reference measurements. In this contribution, a data-driven approach to calibration model development for micromagnetic material characterization is presented, in which Gaussian Process Regression (GPR) is combined with various feature selection methods. The proposed methodology is evaluated using an industrial hard turning process and assessed in terms of its performance compared to classical approaches such as Multiple Linear Regression (MLR).

1 Einleitung

Die mikromagnetische Materialcharakterisierung ermöglicht die zerstörungsfreie In-Process-Messung mechanischer Eigenschaften ferromagnetischer Werkstücke (in bis zu 10 mm Tiefe [1]). Das Potential liegt dabei in der vielfältigen Einsetzbarkeit in Bezug auf die Zielgrößen wie u. a. Eigenspannung, Härte, Härtetiefe, Streckgrenze sowie der Breite der potentiellen Anwendungsfelder in verschiedenen Fertigungsprozessen (Urformen, Umformen, Fügen, Trennen). Der Randschichtzustand eines Bauteils bestimmt dessen Funktionalität, Belastbarkeit und Lebensdauer [2]. Eine gezielte Einstellung dieser Eigenschaften erfordert daher eine In-Process-Erfassung des Randschichtzustands. Wichtige Zielgrößen wie die Eigenspannung werden bisher sehr zeitaufwendig und/oder zerstörend röntgenografisch oder mittels der Bohrlochmethode erfasst [3]. Auch die Oberflächenhärte wird konventionell über die Eindringtiefe eines Prüfkörpers quantifiziert. Die Streckgrenze wird zerstörend mittels Zugversuch bestimmt. Die vorgenannten Prüfverfahren müssen ex-process durchgeführt werden und eignen sich daher nicht für ein prozessintegriertes Steuerungs- oder Regelungskonzept. Hier bietet die zerstörungsfreie mikromagnetische Messung das Potenzial, aufwendige Laboruntersuchungen zeit- und kosteneffizient zu ersetzen und um eine Regelung der Fertigungsprozesse zu ermöglichen [4].

Um auf Basis von MMV die Randschichteigenschaften zu quantifizieren, muss der funktionale Zusammenhang zwischen den mikromagnetischen Messgrößen und den resultierenden Werkstückeigenschaften bekannt sein. Bei der MMV werden verschiedene Messmethoden genutzt: die Oberwellenanalyse der Magnetfeldstärke, das Barkhausenrauschen und die Analyse des Mehrfrequenzwirbelstroms sowie der Überlagerungspermeabilität [5]. Entsprechend besteht die Herausforderung darin, die gemessenen Zeitreihen auf skalare Zielgrößen abzubilden. Zudem führt der hohe Messaufwand für die Referenzmessungen häufig zu kleinen Datensatzgrößen [6]. Im Zusammenhang mit mikromagnetischen Sensoren wird dies häufig als Kalibriermodellerstellung bezeichnet. Allgemeiner kann dies auch als die Erstellung eines Softsensors, also eines virtuellen Sensors, der mittels mathematischer Modelle und Algorithmen aus leicht messbaren Daten in Echtzeit schwer zugängliche oder teuer zu erfassende Messgrößen schätzt, bezeichnet werden [7]. Eine Modellierung dieser Zusammenhänge basierend auf physikalischen Ansätzen ist aufgrund der komplexen, nicht vollständig verstandenen Zusammenhänge nicht zielführend [1]. Vielmehr haben sich datengetriebene Ansätze etabliert, basierend auf einfachen Regressionsansätzen mit schrittweiser Merkmalsselektion (Stepwise Regression, SWR), mit denen aber nicht immer gute Ergebnisse erzielt werden können [8]. Trotz des großen Potenzials zur Zeit- und Kostenreduzierung steht dem breiten industriellen Einsatz von MMV die erforderliche komplexe Kalibriermodellerstellung entgegen [9].

2 Stand der Technik

Verschiedene Arbeiten befassen sich mit der datengetriebenen Kalibrierung von MMV-Systemen. In [10] wird eine klassifikationsbasierte und eine kontinuierliche Quantifizierung mittels multipler linearer Regression betrachtet. Auf der in [10] durchgeführten regressionsbasierten Zugspannungsquantifizierung aufbauend, wird in [11] eine Regression mittels Multi-Layer Perceptron (MLP), Support Vector Machine (SVM) und multipler linearer Regression (MLR) verglichen, wobei allerdings lediglich lineare Aktivierungsfunktionen und Kernelfunktionen betrachtet wurden und keine Merkmalsselektion stattfand. In [12] wird eine geeignete Gewichtung der betrachteten Merkmale zur robusten Klassifikation auf Basis des k-Nearest-Neighbors-Verfahrens (kNN) mittels Genetischem Algorithmus untersucht. In [13] wurde ein MLP mit logistischen Aktivierungsfunktionen als nichtlinearer Ansatz mit multipler linearer Regression für die Zielgröße Einsatzhärtungstiefe ohne den Einsatz einer Merkmalsselektion verglichen. Die vorgestellten Arbeiten zeigen, dass einzelne Ansätze für spezifische Anwendungen gute Ergebnisse liefern können. Eigene Untersuchungen [8] haben aber gezeigt, dass die Standardverfahren für das Beispiel der oberflächennahen Eigenspannungsmessungen oft keine zuverlässigen Ergebnisse liefern. Während bisher häufig einfache lineare Modelle ohne systematische Merkmalsreduktion zum Einsatz kamen, wird in diesem Beitrag ein nichtlinearer Regressionsansatz auf Basis von Gaußprozessregression (GPR) untersucht. Ergänzend werden drei Verfahren zur Merkmalsselektion systematisch verglichen, um deren Einfluss auf die Modellqualität zu bewerten. Ein zentrales Merkmal dieser Untersuchung ist die geringe Datenverfügbarkeit. In der vorliegenden Fallstudie umfasst der Datensatz 81 Beobachtungen bei 82 Merkmalen. Die Forschungsfragen zielen darauf ab, (1) wie gut sich oberflächennahe Werkstoffeigenschaften mittels GPR vorhersagen lassen, (2) welchen Einfluss unterschiedliche Selektionsverfahren auf die Modellgüte haben und (3) inwiefern der vorgeschlagene Ansatz bestehende Verfahren wie die MLR übertrifft. Die Ergebnisse zeigen, dass der vorgeschlagene Ansatz die Modellgüte signifikant verbessert und somit einen Beitrag zur mikromagnetischen Quantifizierung relevanter Werkstoffeigenschaften liefert. Die verwendeten Daten stammen aus einem industriellen Hartdrehprozess. Der Versuchsaufbau mit Drehmaschine und 3MA-MMV-Sensor zur Vermessung einer Stahlwelle ist in Abbildung 1 zu sehen. Bei diesem Artikel handelt es sich um eine erweiterte Fassung eines Beitrags für den 34. Workshops Computational Intelligence in Berlin aus dem Jahr 2024 [14].

Abb. 1: 
Versuchsaufbau mit 3MA-Sensor an der Hartdrehmaschine.
Abb. 1:

Versuchsaufbau mit 3MA-Sensor an der Hartdrehmaschine.

3 Methode

In diesem Beitrag werden empirische Modellierungsansätze betrachtet, die es ermöglichen, nichtlineare Systeme auf Basis kleiner Datensätze zu modellieren. Es soll ein funktionaler Zusammenhang zwischen n Eingangsgrößen x R n und der Ausgangsgröße y R hergestellt werden

(1) y ( l ) = f ( x ( l ) ) + e ( l ) , l = 1 , , N ,

mit dem Datensatz Z N = { x ( l ) , y ( l ) } l = 1 N mit N Elementen. Die Funktion f : R n R ist die nichtlineare Funktion, die das Systemverhalten modellieren soll. Der Term e(l) berücksichtigt Messfehler, nicht berücksichtigte Störungen, sowie Modelldefizite.

3.1 Merkmalsselektion

Aufgrund der hohen Anzahl an Eingangsgrößen werden drei Verfahren zur Merkmalsselektion eingesetzt und verglichen, die eine Untermenge der Kardinalität m aus der Menge der verfügbaren Eingangsgrößen mit der Kardinalität n bestimmen. Folgende Verfahren werden eingesetzt, die sich in Voruntersuchungen für Probleme mit kleinen Datensätzen als geeignet herausgestellt haben: Ein F-Test-basiertes Verfahren [15] wird als Baseline eingesetzt, da dieses einfach durchzuführen ist, wobei es aber zu redundanten Merkmalen kommen kann. Weiterhin wurde mit dem Minimal-Redundancy-Maximum-Relevance-Verfahren [16] ein Filter-Verfahren ausgewählt, das nicht nur berücksichtigt, ob ein Merkmal für die Zielvariable relevant ist, sondern auch ob es redundant bezüglich bereits ausgewählter Merkmale ist. Dies wird bspw. erfolgreich bei Problemen der Bioinformatik angewendet, bei denen ebenfalls häufig kleine Datensätze mit vielen potentiellen Merkmalen auftreten [17]. Zudem kann das dabei eingesetzte informationsbasierte Kriterium der Mutual Information Vorteile im Vergleich zum F-Test als Kriterium haben, da keine spezifischen (z. B. normalverteilten) linearen Zusammenhänge vorausgesetzt werden müssen. Die Mutual Information basiert jedoch auf der Schätzung gemeinsamer Wahrscheinlichkeitsverteilungen und ist somit nicht vollständig frei von Verteilungsannahmen [18]. Als Letztes wird ein modellbasiertes Verfahren mit Regressionsbäumen verwendet, da dieses direkt auch Interaktionen und nichtlineare Zusammenhänge berücksichtigen kann [19]. Im Folgenden werden die Verfahren kurz beschrieben.

Univariates Merkmalsranking mittels F-Test [15]

Ein einfaches, auf der Varianzanalyse (Analysis of Variance, ANOVA) basierendes Verfahren zur Vorselektion der Merkmale wird als Baseline eingesetzt. Hierzu wird die kontinuierliche Ausgangsgröße in 10 gleichgroße Gruppen eingeteilt. Für jedes Merkmal wird dann eine ANOVA durchgeführt, bzw. die F-Statistik berechnet. Jeder F-Test prüft die Hypothese, dass die Gruppen der Ausgangsgröße, die nach den Werten der Prädiktorvariablen gruppiert sind, aus Populationen mit gleichem Mittelwert stammen, gegen die alternative Hypothese, dass die Populationsmittelwerte nicht alle gleich sind. Ein kleiner p-Wert der Teststatistik deutet darauf hin, dass der entsprechende Prädiktor wichtig ist. Zur Bewertung wird ein Predictor-Importance-Score −log(p) aus dem p-Wert abgeleitet.

Minimal Redundancy Maximum Relevance (MRMR) [16]

Dieser Ansatz basiert auf dem MRMR-Prinzip (Minimum Redundancy Maximum Relevance). Dabei wird iterativ das Merkmal x j ausgewählt, das das Verhältnis zwischen hoher Relevanz und niedriger Redundanz maximiert. Die Relevanz eines Merkmals wird über die Mutual-Information zur Zielvariablen y bestimmt, definiert als

(2) I ( x j ; y ) = x j , y p ( x j , y ) log p ( x j , y ) p ( x j ) p ( y ) ,

wobei die empirischen Wahrscheinlichkeiten aus den Daten berechnet werden. Die Redundanz eines Kandidatenmerkmals x j in Bezug auf die bereits ausgewählte Menge der Merkmale S wird als durchschnittliche Mutual-Information

(3) 1 | S | x i S I ( x j ; x i )

berechnet (mit der Kardinalität |S| als Anzahl der Elemente einer Menge), wobei

(4) I ( x j ; x i ) = x j , x i p ( x j , x i ) log p ( x j , x i ) p ( x j ) p ( x i )

gilt. Das Optimierungskriterium lautet somit

(5) max x j S I ( x j ; y ) 1 | S | x i S I ( x j ; x i ) ,

wodurch schrittweise eine kompakte Merkmalsmenge konstruiert wird, das sowohl informativ bezüglich der Zielvariablen ist als auch geringe interne Korrelationen aufweist.

Selektion mittels Regressionsbaum (RT) [20]

Die Merkmalsselektion mittels Regressionsbaum basiert auf der Bewertung des Beitrags einzelner Prädiktoren zur Verringerung des Vorhersagefehlers. Bei der Baumkonstruktion wird an jedem Split eine Verbesserung in Form der Reduktion der mittleren quadratischen Abweichung (MSE) erzielt. Für einen gegebenen Prädiktor x j wird die Wichtigkeit als gewichtete Summe der Fehlerreduktionen über alle Knoten, in denen x j als Split-Kriterium verwendet wurde, definiert:

(6) Imp ( x j ) = k K ( x j ) n k N Δ L k ,

wobei

  1. K( x j ) die Menge der Knoten bezeichnet, in denen x j für einen Split verwendet wird,

  2. n k die Anzahl der Beobachtungen im Knoten k ist,

  3. N die Gesamtzahl der Beobachtungen darstellt und

  4. ΔL k die Verbesserung des Fehlerkriteriums am Knoten k angibt, typischerweise definiert als

    (7) Δ L k = L parent L left + L right ,

    wobei L parent der Fehler des Vorgängerknotens und L left, L right die Fehler der beiden nachfolgenden Knoten sind.

Ein höherer Wert von Imp( x j ) signalisiert, dass der Prädiktor ( x ) j wesentlich zur Reduktion des Vorhersagefehlers beiträgt. Somit können im Rahmen der Merkmalsselektion jene Merkmale bevorzugt werden, die einen hohen Imp( x j )-Wert aufweisen.

Dabei sind die ersten beiden Verfahren modellfrei, also den Filter-Verfahren zuzuorden. Das letzte Verfahren ist modellbasiert und gehört zu den Embedded-Verfahren. Bei dem regressionsbaumbasierten Verfahren wurde ein gewichteter Mean-Squared-Error als Grenze für das Aufspalten eines neuen Knotens von 10−6 festgelegt.

3.2 Modellansatz

Ein Überblick über etablierte Modellansätze für Regressionsaufgaben ist in Tabelle 1 dargestellt. Dabei werden die Verfahren insbesondere in Hinblick auf ihre Eignung für kleine Datenmengen verglichen.

Tab. 1:

Vergleich verschiedener Regressionsansätze hinsichtlich ihrer Eignung für kleine Datensätze.

Regressionsansatz Eignung für kleine Datensätze Vorteile Nachteile/Einschränkungen
Eigenschaften Bewertung
Lineare Regression (OLS, Ridge, Lasso, Elastic Net) Geringe Modellkomplexität, wenig Daten für stabile Schätzung nötig; Regularisierung hilft bei Overfitting ++ Geringer Rechenaufwand, interpretierbar, garantierte Modelleigenschaften Nichtlineare Zusammenhänge erfordern Feature Engineering, Probleme bei Kolinearitäten, Annahme global gültiger Modellstruktur
Gaussian Processes Nichtparametrisches Verfahren, daher kein Informationsverlust ++ Sehr flexibel, probabilistische Vorhersagen, keine feste Modellstruktur nötig Skalierung problematisch (Rechenaufwand wächst stark mit Datenmenge)
Support Vector Regression Nichtlinearitäten lassen sich auch mit wenig Parametern abbilden + Gute Performance bei kleinen Daten, kann komplexe Zusammenhänge modellieren (mit Kernel) Empfindlich gegenüber Parameterwahl, skaliert schlecht mit großen Datensätzen
Decision Trees Neigen bei kleinen Datenmengen zu Overfitting, außer bei starker Begrenzung der Tiefe Gut interpretierbar, wenige Entwurfsentscheidungen Hohe Varianz, instabil bei kleiner Datenmenge, Extrapolationsverhalten
Künstliche Neuronale Netze Nur bei kleinen Netzen geeignet, benötigt sonst viele Daten zur Vermeidung von Overfitting und für stabiles Training Kann beliebig komplexe nichtlineare Zusammenhänge modellieren, Breite Anwendbarkeit Sehr anfällig für Overfitting, viele Hyperparameter, benötigt viele Trainingsdaten, hoher Rechenaufwand
Random Forest Benötigt größere Datenmengen, um stabil zu generalisieren, da viele Teilmodelle kombiniert werden Robust gegen Overfitting, verbessert Stabilität einzelner Bäume Höherer Daten- und Rechenbedarf, geringe Interpretierbarkeit, Extrapolationsverhalten
k-Nearest-Neighbors Regression Stark abhängig von Datenverteilung und Feature-Skalierung, geringe Robustheit bei kleinem n Einfach zu implementieren, keine Modellannahmen Hohe Varianz, anfällig für Ausreißer, schlechte Generalisierung bei kleinem n

Unter Berücksichtigungüng dieses Vergleichs und da hiermit sehr gute Ergebnisse bei vergleichbaren Modellierungsproblemen mit kleinen Datensätzen erzielt werden konnten [4], [21], wurde für die Kalibriermodellerstellung die GPR ausgewählt. Für eine umfangreiche Beschreibung der GPR wird auf [22] verwiesen. Zudem erlaubt GPR die Quantifizierung der Vorhersageunsicherheit. In eigenen Versuchen mit weiteren nichtlinearen Modellansätzen wie MLPs oder SVMs konnten keine besseren Ergebnisse als mit GPR erreicht werden, siehe Abschnitt 5.2. Die Idee hinter einem Gauß-Prozess ist es, eine Wahrscheinlichkeitsverteilung über Funktionen zu definieren. Für die Regression wird die A-priori-Verteilung der zu erlernenden Funktion definiert als:

(8) y ̂ ( l ) = G P ( m ( x ( l ) ) , κ ( x ( l ) , x ( l ) ) )

wobei m( x ) die Basis- bzw. Mittelwertfunktion und κ( x , x ′) die Kovarianzfunktion für zwei Punkte x und x ′ im Eingangsraum ist (Index l im Folgenden weggelassen):

(9) m ( x ) = E [ f ( x ) ]

(10) κ ( x , x ) = E [ ( f ( x ) m ( x ) ) ( f ( x ) m ( x ) ) ]

mit einem positiv-definiten Kernel κ( x , x ′) und dem Erwartungswert E . Der Gauß-Prozess definiert eine gemeinsame Gauß-Verteilung für eine endliche Menge von Punkten:

(11) p ( y | X ) = N ( y | m , K )

mit der Datenmatrix (zusammengesetzt aus den Eingangsdaten) X R N × n , der Kovarianzmatrix K R N × N , K i , j = κ ( x ( i ) , x ( j ) ) , und dem Mittelwertvektor m = [ m ( x ( 1 ) ) m ( x ( N ) ) ] T R N . Der Kernel spielt eine Schlüsselrolle in Gauß-Prozessen, da er die Abhängigkeiten zwischen den Datenpunkten beschreibt. Dies beeinflusst das Verhalten des Modells maßgeblich.

Um die Ausgabe y R für einen neuen Eingangswert x R n vorherzusagen, wird die bedingte A-posteriori-Verteilung berechnet, indem die multivariate Gauß-Verteilung konditioniert wird (bei Erwartungswert von 0 und mit additivem, normalverteiltem Rauschen mit Varianz σ n 2 ):

(12) p ( y x , X , y ) = N y m , κ + σ n 2

mit dem Vektor der bekannten Ausgangsgrößen y R N .

Während die Kernel-Parameter und die Varianz des Rauschens beim Modelltraining durch Maximierung der Log-Marginal-Likelihood-Funktion bestimmt werden können, ist dies für weitere Hyperparameter nicht möglich. Daher wird hier die Bayes’sche-Optimierung (BO) eingesetzt, um die Basisfunktion und die Kernelfunktion auszuwählen. Dabei wurden auch Kernel mit Automatic-Relevance-Determination (ARD) verwendet. Dabei wird jeder Eingangsgröße in der Kovarianzfunktion ein eigener Skalenparameter zugewiesen. Zudem werden die beiden Fälle standardisierter und nicht-standardisierter Daten betrachtet. Die Kernelparameter und die Rauschvarianz werden bei der BO mitoptimiert. Als Gütemaß wird dabei der kreuzvalidierte MSE herangezogen. In Tabelle 2 sind die Hyperparameter und deren Variationen dargestellt, die während der BO optimiert werden. Die BO wurde mit der Matlab-Funktion „bayesopt‟ umgesetzt, die als Surrogatfunktion für die zu optimierende Zielfunktion ebenfalls ein GPR-Modell verwendet. Das zusammengefasste Vorgehen bei der Modellierung ist in Abbildung 2 dargestellt.

Tab. 2:

Entwurfsentscheidungen des Gaußprozessmodells bei BO.

Hyperparameter Varianten
Basisfunktion {keine; konstant; linear; quadratisch}
Kernelfunktion {exponentiell; rational-quadratisch;
exponentiell-quadratisch; Matern32;
Matern52; exponentiell mit ARD;
rational-quadratisch mit ARD
exponentiell-quadratisch mit ARD;
Matern32 mit ARD; Matern52 mit ARD }
Standardisierung {mit; ohne}
Abb. 2: 
Vorgehen bei der Modellierung.
Abb. 2:

Vorgehen bei der Modellierung.

Die mit dem 3MA-Sensor bereitgestellte Toolbox verwendet eine multiple lineare Regression (MLR) folgender Form ohne Interaktionsterme

(13) f ( x ) = k = 1 n a k x k b k , a k R , b k { 0 ; 0,5 ; 1 ; 2 }

mit einer schrittweisen Vorwärtsselektion und einer quadratischen Gütefunktion. Die Aufnahme zusätzlicher Terme erfolgt basierend auf einem F-Test zur Signifikanzbewertung. Dieser bewertet schrittweise die Güte von zwei Modellen, mit verschiedenen Teilmengen von Regressoren, ausgehend von einem konstanten Modell und folgt einer ’greedy’ Suchstrategie.

4 Daten

Die Daten stammen aus einem industriellen Hartdrehprozess mit vergütetem Stahl 51CrV4. Die Proben wurden bei unterschiedlichen Temperaturen gehärtet und angelassen, sodass sich drei verschiedene Ausgangshärtegrade ergaben: 400 HV, 500 HV und 600 HV. Für die anschließende Hartdrehbearbeitung wurden die Prozessparameter nach einem vollfaktoriellen Versuchsplan variiert, wodurch verschiedene Oberflächenzustände der Werkstücke resultierten. Je Härtecharge wurden 27 Proben mit variierten Prozessparameterkombinationen erzeugt. Insgesamt sind somit 81 Proben vorhanden. Die MMV-Messungen wurden mit einem 3MA-II-Gerät des Fraunhofer IZFP durchgeführt. Der Versuchsaufbau mit dem 3MA-Sensor an der Drehmaschine ist in Abbildung 1 zu sehen.

Die Referenzmessungen der Eigenspannungen wurden mittels Röntgendiffraktometrie (XRD) ermittelt. Das 3MA-Gerät liefert für eine Messung 41 Prüfgrößen, die aus den gemessenen Zeitreihen abgeleitet werden. In Abbildung 3 sind beispielhaft 6 Prüfgrößen dargestellt, die aus einer Zeitreihe der Messung des Barkhausenrauschens abgeleitet werden. Dabei bezeichnet Mmax die maximale Rauschamplitude, MR die Rauschamplitude im Remanenzpunkt, HCM die magnetische Feldstärke im Rauschmaximum und DHxM die Kurvenaufweitung bei x % der Kurvenhöhe. Für eine genauere Beschreibung der Prüfgrößen, auch der weiteren Messverfahren, wird auf [10] verwiesen. Die Messungen wurden mit zwei Magnetisierungsamplituden (16 A cm−1 und 30 A cm−1) durchgeführt, wodurch 2 × 41 = 82 Prüfgrößen resultieren, die als Merkmale, bzw. potentielle Eingangsgrößen für das Kalibriermodell dienen. In Abbildung 4 ist die Korrelationsmatrix für den paarweisen Vergleich der Prüfgrößen dargestellt. Dabei handelt es sich bei den Größen 1–41 und 42–81 jeweils um die Prüfgrößen für die beiden Magnetisierungsamplituden. Es ist erkennbar, dass teilweise starke Korrelationen zwischen den Prüfgrößen auftreten, was eine Merkmalsselektion motiviert. So sind Blöcke mit stark korrelierten Größen erkennbar. Dabei handelt es sich um die Kenngrößen aus den Wirbelstrommessungen, die offenbar teilweise redundante Informationen liefern.

Abb. 3: 
Beispielhafte Darstellung von sechs ermittelten Prüfgrößen aus den Messungen des Barkhausenrauschens.
Abb. 3:

Beispielhafte Darstellung von sechs ermittelten Prüfgrößen aus den Messungen des Barkhausenrauschens.

Abb. 4: 
Korrelationsmatrixplot der paarweisen Korrelationen der Eingangsgrößen (Pearson-Korrelations-Koeffizient).
Abb. 4:

Korrelationsmatrixplot der paarweisen Korrelationen der Eingangsgrößen (Pearson-Korrelations-Koeffizient).

Aus den mit XRD gemessenen Eigenspannungstiefenverläufen in den ersten 200 µm unterhalb der Oberfläche der Werkstücke werden charakteristische Kennwerte extrahiert, die dann als Ausgangszielgröße für die Kalibriermodelle eingesetzt werden. Aus werkstoff- und produktionstechnischer Sicht sind hierbei die Oberflächeneigenspannung sowie die maximale Druckeigenspannung von besonderem Interesse, da diese erheblichen Einfluss auf die Bauteileigenschaften wie Ermüdungsfestigkeit und Bruchzähigkeit haben [23]. In Abbildung 5 sind die Kennwerte in einem beispielhaften, mit XRD gemessenen, Eigenspannungstiefenverlauf dargestellt.

Abb. 5: 
Beispielhafter Eigenspannungstiefenverlauf mit den charakteristischen Kennwerten. ES1 ist der Eigenspannungswert an der Oberfläche und ES2 die maximale Druckeigenspannung, die im Tiefenverlauf auftritt.
Abb. 5:

Beispielhafter Eigenspannungstiefenverlauf mit den charakteristischen Kennwerten. ES1 ist der Eigenspannungswert an der Oberfläche und ES2 die maximale Druckeigenspannung, die im Tiefenverlauf auftritt.

Darüber hinaus wurde eine Vickers-Härteprüfung mit einem Struers DuraScan-70-System bei einer Belastung von 294,2 N (HV30) zur Bestimmung der Oberflächenhärte (OH) durchgeführt. Die Oberflächenhärte ist eine weitere wichtige oberflächennahe Eigenschaft, da sie maßgeblich das Verhalten des Materials bei mechanischen Beanspruchungen und im Kontakt mit anderen Oberflächen beeinflusst.

5 Ergebnisse

Für die Bewertung der Modellgüte wird das für Regressionsmodelle übliche empirische Bestimmtheitsmaß R 2

(14) R 2 = 1 l = 1 N ( y ( l ) y ̂ ( l ) ) 2 l = 1 N ( y ( l ) y ̄ ) 2

mit dem Mittelwert y ̄ verwendet sowie der Root-Mean-Squared-Error (RMSE)

(15) R M S E = 1 N l = 1 N ( y ( l ) y ̂ ( l ) ) 2

Um die Generalisierungsfähigkeit der Modelle zu bewerten, wird ein k-fach kreuzvalidiertes (CV) Bestimmtheitsmaß R CV 2 verwendet. Dabei wird k = 20 gewählt, um gegeben den kleinen Datensatz für jede der k Teilmengen relativ große Trainingsdatensätze zu erhalten. Die Umsetzung der Methoden erfolgte in Matlab 2023b.

5.1 Merkmalsselektion

In diesem Abschnitt werden die Ergebnisse für die Merkmalsselektion für die Zielgröße der maximalen Druckeigenspannung (ES2) dargestellt. Um die in Abschnitt 3 erwähnten Verfahren zur Merkmalsselektion vergleichen und den Zusammenhang der Anzahl der selektierten Merkmale mit der Modellgüte zu quantifizieren, wurde die kreuzvalidierte Modellgüte für unterschiedliches m (Anzahl der selektierten Merkmale) untersucht. In Abbildung 6 sind die Ergebnisse hierzu für ES2 dargestellt. Die beste Modellgüte lässt sich mit dem Verfahren mittels Regressionsbaum erzielen. Insbesondere fällt auf, dass die beste Modellgüte hier bereits bei m = 5 selektierten Merkmalen erzielt werden kann. Hier zeigt sich der Vorteil des Embedded-Verfahrens, das nicht nur korrelationsbasiert selektiert. Für die vorliegende Problemstellung mit kleinen Datensätzen ist die höhere Rechenzeit des modellbasierten Ansatzes vernachlässigbar. Das F-Test-basierte Verfahren zeigt durchgehend die schlechteste Performance. MRMR und RT erzielen für eine Anzahl der Merkmale > 20 ähnliche Modellgüten. In Tabelle 3 sind die selektierten Merkmale für die Modelle (Anzahl der selektierten Merkmale mit RT: m = 5, MRMR: m = 19, F-Test: m = 26) mit der jeweils höchsten Modellgüte angegeben. Dabei ist zu erkennen, dass MRMR alle 5 Merkmale selektiert hat, mit denen mit RT die beste Modellgüte erzielt werden konnte. Der F-Test hat nur 3 davon selektiert. Die H16_Hro und H30_Hco stammen aus der Oberwellenanalyse der magnetischen Tangentialfeldstärke, H30_umax und H30_umean aus der Analyse des Überlagerungspermeabilität-Signals und H30_DH25u aus der Analyse des Barkhausenrauschen-Signals. Der Präfix (H16, H30) verweist auf die Magnetisierungsamplitude der jeweiligen Messung. Es ist zu erkennen, dass die Magnetisierungsamplitude von 30 A cm−1 für die maximale Druckeigenspannung die relevantere Eigenschaft ist.

Abb. 6: 
Kreuzvalidierte Modelgüte (R
2) für die Prädiktion der maximalen Druckeigenspannung (ES2) in Abhängigkeit der Anzahl der selektierten Merkmale für die drei Merkmalsselektionsverfahren.
Abb. 6:

Kreuzvalidierte Modelgüte (R 2) für die Prädiktion der maximalen Druckeigenspannung (ES2) in Abhängigkeit der Anzahl der selektierten Merkmale für die drei Merkmalsselektionsverfahren.

Tab. 3:

Selektierte Merkmale mit der höchsten kreuzvalidierten Modellgüte. Die Merkmale, die bei der Selektion mit RT die beste Modellgüte erzielen konnten, sind fett gedruckt.

RT MRMR F-Test
H16_Hro H16_Hro H16_Hro
H30_Hco H30_Hco H30_umean
H30_umax H30_umax H30_DH25u
H30_umean H30_umean H16_A3
H30_DH25u H30_DH25u H16_A7
H16_P3 H16_P5
H16_Mr H16_P7
H16_Hcm H16_Hco
H16_umean H16_Mmean
H16_ur H16_DH25m
H16_Hcu H16_DH50m
H30_P3 H16_umean
H30_Mmax H16_Re1
H30_ur H16_Mag1
H30_Im2 H16_Im2
H30_Ph2 H16_Mag2
H30_Im3 H16_Mag3
H30_Re4 H16_Re4
H30_Mag4 H30_P7
H30_UHS
H30_K
H30_Mmean
H30_DH50m
H30_DH50u
H30_DH75u
H30_Ph1

Für den vorliegenden Datensatz mit N = 81 Beobachtungen und n = 82 Merkmalen ergeben sich folgende Rechenzeiten für einen einzelnen Durchlauf der Merkmalsselektionsverfahren: F-Test 0,65 s, MRMR 3,94 s, RT 8,23 s (Intel i5-6,500 3.2 GHz CPU, 16 GB RAM). Wie zu erwarten, benötigt das Embedded-Verfahren die höchste Rechenzeit, die allerdings nur gut doppelt so hoch ist wie die von MRMR.

5.2 Evaluierung nichtlinearer Regressionsverfahren

Es wurden Voruntersuchungen zur Bewertung der Modellgüte unterschiedlicher Regressionsverfahren bei kleinen Datensätzen durchgeführt. Dabei wurden Gaußprozessregression, Support Vector Regression und ein einfaches Multi-Layer Perceptron Netzwerk verwendet. Die Modelle wurden jeweils mit 20-facher Kreuzvalidierung evaluiert. Als Bewertungsgröße wurden das kreuzvalidierte R 2 und der kreuzvalidierte RMSE verwendet. Die GPR wurde mit einer rational-quadratischen ARD-Kernelfunktion und konstanter Basisfunktion eingesetzt. Die SVM nutzte einen gaußschen Kernel. Für das MLP wurde eine einfache Netzstruktur mit einer verborgenen Schicht verwendet mit 9 Neuronen und hyperbolische Tangens-Sigmoid-Aktivierungsfunktionen. Die Merkmale wurden wie in Abschnitt 5.1 beschrieben mit RT selektiert. Die Ergebnisse sind in Tabelle 4 dargestellt. Die Ergebnisse zeigen, dass die GPR für alle Zielgrößen die höchste Modellgüte erreicht. Während das MLP ebenfalls gute Ergebnisse liefert, zeigt die SVM in allen Fällen die schwächste Performance. Insgesamt bestätigt sich die hohe Eignung der GPR für nichtlineare Regressionsprobleme bei kleinen Datensätzen und die GPR wird für die weiteren Untersuchungen verwendet.

Tab. 4:

Vergleich der Modellgüten mit Kreuzvalidierung für die Auswahl des nichtlinearen Regressionsansatzes. Die Merkmalsselektion erfolgte mit RT.

Ausgangsgröße Modell R CV 2 RMSE CV
GPR 0,8953 117,62 MPa
ES1 SVM 0,6581 212,56 MPa
MLP 0,7537 180,41 MPa
GPR 0,9157 76,38 MPa
ES2 SVM 0,6742 150,16 MPa
MLP 0,8619 97,76 MPa
GPR 0,9025 14,24 HV30
OH SVM 0,7643 22,14 HV30
MLP 0,8172 19,50 HV30

5.3 Modellprädiktionen

Die Ergebnisse für GPR und MLR sind in Tabelle 5 für die Zielgrößen ES2, ES1 und OH dargestellt. Der Vergleich mit MLR findet statt, da es sich dabei wie in 3 beschrieben um das Verfahren handelt, das die Toobox des 3MA-Sensors verwendet. Es wurde RT für die Merkmalsselektion mit der besten ermittelten Anzahl an Merkmalen verwendet. In den Abbildung 7a, 7b und 7c sind die entsprechenden Prädiktionen für GPR mit Merkmalsselektion für ES1, ES2 und OH dargestellt, zusammen mit den prädizierten Unsicherheitsintervallen. Die durchschnittlichen geschätzten Standardabweichungen für die Validierungsdaten betragen für ES1 79,73 MPa, für ES2 188,45 MPa und für die Oberflächenhärte 22,23 HV30. Die GPR liefert deutlich bessere Ergebnisse als die MLR (Tabelle 5). Die Variante mit der Merkmalsselektion liefert bessere Ergebnisse und zeichnet sich daneben durch einen geringeren Rechenaufwand beim Training des GPR aus. Die mit Bayes’scher Optimierung ermittelten Hyperparameter der GPR-Modelle sind in Tabelle 6 dargestellt. Während die Standardisierung der Daten für beide Zielgrößen angewendet wird, wurden unterschiedliche optimale Basis- und Kernelfunktionen bestimmt. In Abbildung 8a und 8b ist ein Vergleich der prädizierten mit den wahren Werten für die Validierungsdaten der GPR mit Merkmalsselektion sowie der MLR für ES2 dargestellt. Bei MLR ist auffällig, dass die Streuung insbesondere bei den Werten um 0 MPa sehr groß ist. Diese Werte werden durch das GPR besser abgebildet.

Tab. 5:

Vergleich der Modellgüten mit Kreuzvalidierung für die Zielgrößen.

Ausgangsgr. Modell R CV 2 RMSE CV
GPR ohne Selektion 0,8573 137,32 MPa
ES1 GPR mit Selektion 0,8953 117,62 MPa
MLR mit SWR wie in [8] 0,6452 216,50 MPa
GPR ohne Selektion 0,8734 93,60 MPa
ES2 GPR mit Selektion 0,9157 76,38 MPa
MLR mit SWR wie in [8] 0,6921 145,97 MPa
GPR ohne Selektion 0,8853 15,45 HV30
OH GPR mit Selektion 0,9025 14,24 HV30
MLR mit SWR wie in [8] 0,7382 23,34 HV30
Abb. 7: 
Prädiktionen mit GPR und Merkmalsselektion sowie Unsicherheitsintervalle (Validierungsdaten, aufsteigend nach Größe der wahren Werte sortiert).
Abb. 7:

Prädiktionen mit GPR und Merkmalsselektion sowie Unsicherheitsintervalle (Validierungsdaten, aufsteigend nach Größe der wahren Werte sortiert).

Tab. 6:

Mit Bayes’scher Optimierung ermittelte Hyperparameter der GPR-Modelle für die Zielgrößen Oberflächeneigenspannung (ES1), maximale Druckeigenspannung (ES2) und Oberflächenhärte (OH).

ES1 ES2 OH
Basisfunktion konstant linear konstant
Kernelfunktion rational-quadr. m. ARD exponentiell-quadr. exponentiell-quadr. m. ARD
Standardisierung mit mit mit
Abb. 8: 
Vergleich von multipler linearer Regression (MLR) und Gaußprozessregression (GPR) bezüglich der Prädiktionen für die Validierungsdaten der Modelle für die maximale Druckeigenspannung (ES2).
Abb. 8:

Vergleich von multipler linearer Regression (MLR) und Gaußprozessregression (GPR) bezüglich der Prädiktionen für die Validierungsdaten der Modelle für die maximale Druckeigenspannung (ES2).

5.4 Einfluss der Datenmenge auf die Modellgüte

Um die Eignung des vorgestellten modellbasierten Kalibrierungsansatzes unter realistischen Bedingungen mit begrenzter Datenverfügbarkeit zu bewerten, wurde eine Sensitivitätsanalyse hinsichtlich der Größe des verfügbaren Trainingsdatensatzes durchgeführt. Hierzu wurde der ursprüngliche Datensatz zufällig auf Teilmengen mit 20 %, 40 %, 60 %, 80 % und 100 % der Daten reduziert. Für jede dieser Stichprobengrößen wurde das Modelltraining zehnmal mit zufälliger Auswahl durchgeführt.

Untersucht wurden jeweils die drei Verfahren zur Merkmalsselektion (F-Test, MRMR, RT) in Kombination mit der Gaußprozessregression. Die Modellgüte wurde anhand des kreuzvalidierten Bestimmtheitsmaßes R 2 bewertet. Die Ergebnisse in Abbildung 9 zeigen, dass insbesondere das Regressionsbaumbasierte Verfahren auch bei kleinen Trainingsdatensätzen robuste und zuverlässige Modelle ermöglicht. Im Gegensatz dazu bricht die Performance des F-Test-basierten Ansatzes bei stark reduzierter Datenmenge deutlich ein. Diese Ergebnisse unterstreichen die Relevanz einer geeigneten Merkmalsselektion und zeigen, dass der vorgeschlagene Ansatz insbesondere bei datenarmen Anwendungen vorteilhaft eingesetzt werden kann.

Abb. 9: 
Kreuzvalidierte Modellgüte (R
2) in Abhängigkeit der Trainingsdatensatzgröße für drei Verfahren zur Merkmalsselektion (F-Test, MRMR, RT) in Kombination mit Gaußprozessregression. Dargestellt sind Boxplots über zehn zufällige Stichproben pro Datenmenge.
Abb. 9:

Kreuzvalidierte Modellgüte (R 2) in Abhängigkeit der Trainingsdatensatzgröße für drei Verfahren zur Merkmalsselektion (F-Test, MRMR, RT) in Kombination mit Gaußprozessregression. Dargestellt sind Boxplots über zehn zufällige Stichproben pro Datenmenge.

5.5 Vergleich mit bestehender Arbeit [8]

In diesem Abschnitt soll ein Vergleich mit dem GPR-Model mit Merkmalsselektion (welches im obigen Vergleich 5.3 die besten Ergebnisse erzielte) mit den Ergebnissen aus [8], in dem derselbe Datensatz verwendet wird, erfolgen. Um einen direkten Vergleich der Ergebnisse für die Kalibrierung des 3MA-Sensors aus [8] zu ermöglichen, wird dasselbe Szenario wie ebendort verwendet. Es wird daher nur die 500 HV-Charge betrachtet. Zudem wird nur ES1 und ES2 untersucht, nicht aber die Oberflächenhärte. In [8] wurde nur das Standardverfahren, also eine MLR mit schrittweiser Selektion angewendet. Da ursprünglich ein vollfaktorieller Experimententwurf mit 3 Faktoren und 3 Faktorstufen verwendet wurde, ergibt sich also ein Datensatz mit N = 27. Es werden wie in [8] 5 Hold-Out (HO)-Daten für die Validierung eingesetzt. Die Ergebnisse sind in Tabelle 7 für ES2 und ES1 dargestellt. Auch hier sind die Ergebnisse mit dem GPR deutlich besser. Allerdings ist die Validierung mit 5 Datenpunkten bei 22 Trainingsdaten, im Vergleich zur Kreuzvalidierung, nur bedingt aussagekräftig. Zudem ist der Trainingsdatensatz, der nur die 500-HV-Charge beinhaltet mit N = 27, sehr klein.

Tab. 7:

Vergleich der Modellgüten mit Hold-Out-Testdaten, wie in [8] für die Zielgrößen maximale Druckeigenspannung (ES2) und Oberflächeneigenspannung (ES1).

Ausgangsgr. Modell R HO 2 RMSE HO
ES1 GPR mit Selektion 0,8523 139,70 MPa
MLR mit SWR wie in [8] 0,6474 215,86 MPa
ES2 GPR mit Selektion 0,8784 91,73 MPa
MLR mit SWR wie in [8] 0,6317 159,65 MPa

6 Diskussion und Ausblick

In diesem Beitrag wurde ein Ansatz für die datengetriebene Modellierung für die Erstellung von Kalibriermodellen vorgestellt. Es konnte für ein mikromagnetisches Sensorsystem gezeigt werden, dass der Ansatz mit nichtparametrischer Modellierung gut geeignet ist und zu einer Modellgüte führt, die einen Einsatz in der Prozessüberwachung oder für eine Prozesssteuerung bzw. -regelung ermöglicht. Durch den Einsatz von Merkmalsselektion konnte die Menge der für die spezifischen Zielgrößen relevanten Eingangsgrößen stark reduziert und die Prädiktionsgüte verbessert werden.

Dabei wurden Verfahren zur Selektion der Merkmale verglichen und bewertet. In der Zukunft sollen weitere Wrapper-, Filter-, und Embedded-Verfahren untersucht werden. Darauf aufbauend soll das Verfahren um eine ensemblebasierte Merkmalsextraktion und -selektion erweitert werden. Darüber hinaus werden neue Messkampagnen durchgeführt. Dabei sollen auch die Rohdaten, also die gemessenen Zeitreihen des mikromagnetischen Sensors, erfasst und bei der Modellierung verwendet werden. Es sollen Verfahren für die Merkmalsextraktion aus den Zeitreihen entwickelt werden, um den Informationsgehalt der Rohdaten umfassend auszunutzen. Dadurch soll ein automatisierter Ansatz entstehen, der die Kalibriermodellerstellung für eine große Bandbreite an Werkstoffen und Zielgrößen ermöglicht. Neue Experimente und Messungen für diese Untersuchungen werden zum Zeitpunkt der Schriftlegung durchgeführt.


Korrespondenzautor: Felix Wittich, Fachgebiet Mess- und Regelungstechnik (MRT), Institute for System Analytics and Control (ISAC), Fachbereich Maschinenbau, Universität Kassel, 34125 Kassel, Deutschland, E-mail: 

Danksagung: Gefördert durch die Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 532921704. Die Autoren danken dem Fachgebiet Metallische Werkstoffe der Universität Kassel für die Durchführung der Hartdrehversuche sowie der röntgendiffraktometrischen und der mikromagnetischen Messungen. Außerdem danken wir den Gutachtern für die hilfreichen Anmerkungen und Anregungen.


Über die Autoren

Felix Wittich

Felix Wittich, M. Sc., ist wissenschaftlicher Mitarbeiter am Fachgebiet Mess- und Regelungstechnik der Universität Kassel. Seine Forschungsschwerpunkt sind datengetriebene Modellierung, Maschinelles Lernen und Systemidentifikation.

Andreas Kroll

Univ.-Prof. Dr.-Ing. Andreas Kroll ist Leiter des Fachgebiets Mess- und Regelungstechnik der Universität Kassel. Seine Forschungsschwerpunkte sind nichtlineare Identifikations- und Regelungsmethoden, Computational Intelligence, Fernmesstechnik und Sensordatenfusion.

Acknowledgments

Gefördert durch die Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 532921704. Die Autoren danken dem Fachgebiet Metallische Werkstoffe der Universität Kassel für die Durchführung der Hartdrehversuche sowie die Durchführung der röntgendiffraktometrischen sowie der mikromagnetischen Messungen.

  1. Research ethics: Not applicable.

  2. Informed consent: Not applicable.

  3. Author contributions: All authors have accepted responsibility for the entire content of this manuscript and approved its submission.

  4. Use of Large Language Models, AI and Machine Learning Tools: Not applicable.

  5. Conflict of interest: Not applicable.

  6. Research funding: Gefördert durch die Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 532921704.

  7. Data availability: The data used in this study are available from the authors upon reasonable request.

Literatur

[1] B. Wolter, Y. Gabi, and C. Conrad, “Nondestructive testing with 3MA – An overview of principles and applications,” Appl. Sci., vol. 9, no. 6, p. 1068, 2019, https://doi.org/10.3390/app9061068.Search in Google Scholar

[2] Z. Liao, et al.., “Surface integrity in metal machining - part I: fundamentals of surface characteristics and formation mechanisms,” Int. J. Mach. Tool Manufact., vol. 162, p. 103687, 2021, https://doi.org/10.1016/j.ijmachtools.2020.103687.Search in Google Scholar

[3] M. Lebsanft, M. Tiffe, A. Zabel, W. Zinn, D. Biermann, and B. Scholtes, “Residual stresses in different heat treated workpieces after turning,” Adv. Mater. Res., vol. 996, pp. 652–657, 2014, https://doi.org/10.4028/www.scientific.net/amr.996.652.Search in Google Scholar

[4] F. Wittich, T. Wegener, A. Liehr, W. Zinn, T. Niendorf, and A. Kroll, “Data-driven prediction of the surface layer state in hard-turning for optimization of component quality,” Prod. Eng., vol. 18, no. 2, pp. 381–392, 2024. https://doi.org/10.1007/s11740-023-01256-w.Search in Google Scholar

[5] G. Dobmann, “Physical basics and industrial applications of 3MA–micromagnetic multiparameter microstructure and stress analysis,” in Proceedings of the 10th European Conference on Nondestructive Testing, ECNDT, 2010, pp. 7–11.Search in Google Scholar

[6] G. Dobmann, W. A. Theiner, and R. Becker, Progress in the Micromagnetic Multiparameter Microstructure and Stress Analysis (3MA), Springer Berlin Heidelberg, 1989, pp. 516–523.10.1007/978-3-642-84003-6_61Search in Google Scholar

[7] Y. Jiang, S. Yin, J. Dong, and O. Kaynak, “A review on soft sensors for monitoring, control, and optimization of industrial processes,” IEEE Sens. J., vol. 21, no. 11, pp. 12 868–12 881, 2021, https://doi.org/10.1109/jsen.2020.3033153.Search in Google Scholar

[8] T. Wegener, et al.., “Calibration and validation of micromagnetic data for non-destructive analysis of near-surface properties after hard turning,” HTM J. Heat Treat. Mater., vol. 77, no. 2, pp. 156–172, 2022. https://doi.org/10.1515/htm-2021-0023.Search in Google Scholar

[9] N. Baak, et al.., “Micromagnetic approaches for microstructure analysis and capability assessment,” Mater. Charact., vol. 178, p. 111189, 2021, https://doi.org/10.1016/j.matchar.2021.111189.Search in Google Scholar

[10] S. Youssef, C. Zimmer, K. Szielasko, and A. Schütze, “Bewertung subjektiver und automatisierter Merkmalsextraktion periodischer Zeitsignale am Beispiel des 3MA-X8-Verfahrens,” tm - Technisches Messen, vol. 86, no. 5, pp. 267–277, 2019, https://doi.org/10.1515/teme-2018-0074.Search in Google Scholar

[11] S. Youssef, C. Zimmer, K. Szielasko, Z. K. Suri, and A. Schütze, “Vergleich subjektiver und automatisierter Merkmalsextraktion sowie Einsatz maschineller Lernalgorithmen zur mikromagnetischen Materialcharakterisierung,” in Proceedings 20. GMA/ITG-Fachtagung Sensoren und Messsysteme, 2019, pp. 347–354.10.5162/sensoren2019/4.3.2Search in Google Scholar

[12] K. Szielasko, B. Wolter, R. Tschuncky, and S. Youssef, “Micromagnetic materials characterization using machine learning: progress in nondestructive prediction of mechanical properties of steel and iron,” tm - Technisches Messen, vol. 87, no. 6, pp. 428–437, 2019, https://doi.org/10.1515/teme-2019-0099.Search in Google Scholar

[13] R. Jedamski and J. Epp, “Non-Destructive micromagnetic determination of hardness and case hardening depth using linear regression analysis and artificial neural networks,” Metals, vol. 11, no. 18, p. 18, 2020, https://doi.org/10.3390/met11010018.Search in Google Scholar

[14] F. Wittich and A. Kroll, “Datengetriebene Modellierung und Merkmalsselektion für die automatische Kalibrierung eines Sensorsystems für die mikromagnetische Materialcharakterisierung,” in Proceedings 34. Workshop Computational Intelligence, vol. 21, 2024, pp. 21–36.10.58895/ksp//1000174544-2Search in Google Scholar

[15] B. Raufi and L. Longo, “Comparing ANOVA and PowerShap feature selection methods via shapley additive explanations of models of mental workload built with the theta and alpha EEG band ratios,” BioMedInformatics, vol. 4, no. 1, pp. 853–876, 2024, https://doi.org/10.3390/biomedinformatics4010048.Search in Google Scholar

[16] H. Peng, F. Long, and C. Ding, “Feature selection based on mutual information criteria of max-dependency, max-relevance, and min-redundancy,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 27, no. 8, pp. 1226–1238, 2005, https://doi.org/10.1109/tpami.2005.159.Search in Google Scholar PubMed

[17] C. Ding and H. Peng, “Minimum redundancy feature selection from microarray gene expression data,” J. Bioinf. Comput. Biol., vol. 3, no. 2, pp. 185–205, 2005, https://doi.org/10.1142/s0219720005001004.Search in Google Scholar PubMed

[18] I. Guyon and A. Elisseeff, “An introduction to variable and feature selection,” J. Mach. Learn. Res., vol. 3, no. Mar, pp. 1157–1182, 2003.Search in Google Scholar

[19] Y. Saeys, I. Inza, and P. Larrañaga, “A review of feature selection techniques in bioinformatics,” Bioinformatics, vol. 23, no. 19, pp. 2507–2517, 2007, https://doi.org/10.1093/bioinformatics/btm344.Search in Google Scholar PubMed

[20] W.-Y. Loh, “Regression tress with unbiased variable selection and interaction detection,” Statistica Sinica, vol. 12, no. 2, pp. 361–386, 2002.Search in Google Scholar

[21] F. Wittich, L. Kistner, A. Kroll, C. Schott, and T. Niendorf, “On data-driven nonlinear uncertainty modeling: methods and application for control-oriented surface condition prediction in hard turning,” tm - Technisches Messen, vol. 87, no. 11, pp. 732–741, 2020, https://doi.org/10.1515/teme-2020-0057.Search in Google Scholar

[22] C. E. Rasmussen and C. K. I. Williams, Gaussian Processes for Machine Learning, Cambridge, The MIT Press, 2005.10.7551/mitpress/3206.001.0001Search in Google Scholar

[23] F. Hashimoto, Y. Guo, and A. Warren, “Surface integrity difference between hard turned and ground surfaces and its impact on fatigue life,” CIRP Annals, vol. 55, no. 1, pp. 81–84, 2006, https://doi.org/10.1016/s0007-8506(07)60371-0.Search in Google Scholar

Erhalten: 2025-02-24
Angenommen: 2025-07-31
Online erschienen: 2025-10-10
Erschienen im Druck: 2025-10-27

© 2025 the author(s), published by De Gruyter, Berlin/Boston

This work is licensed under the Creative Commons Attribution 4.0 International License.

Downloaded on 17.10.2025 from https://www.degruyterbrill.com/document/doi/10.1515/auto-2025-0022/html
Scroll to top button