Startseite Mathematik C Optimierung
Kapitel
Lizenziert
Nicht lizenziert Erfordert eine Authentifizierung

C Optimierung

Veröffentlichen auch Sie bei De Gruyter Brill
Maschinelles Lernen
Ein Kapitel aus dem Buch Maschinelles Lernen
C OptimierungIn diesem Anhang sind die grundlegenden Optimierungsver-fahren zusammengestellt, die beim maschinellen Lernen Ver-wendung finden.C.1 EinführungEin Optimierungsproblem wird in der folgenden Form geschrieben:minimieref(w1,...,wd).(C.1)Dabei istf:RdRdieZielfunktionundw1,...,wdsind dieEntschei-dungsvariablen.Ein speziellesw= [w1,...,wd]Tist eineLösung,fallssie den kleinsten Wert der Zielfunktion hat.Optimierung ist ein wesentlicher Aspekt des maschinellen Lernens, beidem wir ein Modell definieren, das bis auf eine Menge von Parameternfestgelegt ist. Unser Ziel ist es, denjenigen Satz von Parametern zu finden,für den das Modell am besten zu den Trainingsdaten passt. Dies ist einOptimierungsproblem, bei dem die Zielfunktion die Abweichung von denDaten ist. Diese Abweichung nennen wir Fehler- oder Verlustfunktion.Die Entscheidungsvariablen sind die Modellparameter.Jedes Maximierungsproblem kann in ein Minimierungsproblem umfor-muliert werden, indem man ein Minuszeichen davor schreibt. Beim ma-schinellen Lernen wird beispielsweise ein Maximum-Likelihood-Problemin ein Fehlerminimierungsproblem überführt, indem man den negativenLogarithmus der Likelihood bildet – der Logarithmus führt bei manchenModellen zu einer einfacheren Zielfunktion.Manchmal umfasst die Definition auchNebenbedingungen(NB), die denWertebereich der Entscheidungsvariablen einschränken. Beispielsweisekönnten wir fordern, dass einige Entscheidungsvariablen nichtnegativ seinmüssen oder dass ihre Norm kleiner als ein bestimmter Wert sein muss.Im allgemeinen Fall haben wirminimieref0(w)(C.2)unter NBfi(w)0,i= 1,...,mhi(w) = 0,i= 1,...,p .https://doi.org/10.1515/9783110740196-023
© 2021 Walter de Gruyter GmbH, Berlin/Boston

C OptimierungIn diesem Anhang sind die grundlegenden Optimierungsver-fahren zusammengestellt, die beim maschinellen Lernen Ver-wendung finden.C.1 EinführungEin Optimierungsproblem wird in der folgenden Form geschrieben:minimieref(w1,...,wd).(C.1)Dabei istf:RdRdieZielfunktionundw1,...,wdsind dieEntschei-dungsvariablen.Ein speziellesw= [w1,...,wd]Tist eineLösung,fallssie den kleinsten Wert der Zielfunktion hat.Optimierung ist ein wesentlicher Aspekt des maschinellen Lernens, beidem wir ein Modell definieren, das bis auf eine Menge von Parameternfestgelegt ist. Unser Ziel ist es, denjenigen Satz von Parametern zu finden,für den das Modell am besten zu den Trainingsdaten passt. Dies ist einOptimierungsproblem, bei dem die Zielfunktion die Abweichung von denDaten ist. Diese Abweichung nennen wir Fehler- oder Verlustfunktion.Die Entscheidungsvariablen sind die Modellparameter.Jedes Maximierungsproblem kann in ein Minimierungsproblem umfor-muliert werden, indem man ein Minuszeichen davor schreibt. Beim ma-schinellen Lernen wird beispielsweise ein Maximum-Likelihood-Problemin ein Fehlerminimierungsproblem überführt, indem man den negativenLogarithmus der Likelihood bildet – der Logarithmus führt bei manchenModellen zu einer einfacheren Zielfunktion.Manchmal umfasst die Definition auchNebenbedingungen(NB), die denWertebereich der Entscheidungsvariablen einschränken. Beispielsweisekönnten wir fordern, dass einige Entscheidungsvariablen nichtnegativ seinmüssen oder dass ihre Norm kleiner als ein bestimmter Wert sein muss.Im allgemeinen Fall haben wirminimieref0(w)(C.2)unter NBfi(w)0,i= 1,...,mhi(w) = 0,i= 1,...,p .https://doi.org/10.1515/9783110740196-023
© 2021 Walter de Gruyter GmbH, Berlin/Boston
Heruntergeladen am 24.9.2025 von https://www.degruyterbrill.com/document/doi/10.1515/9783110740196-023/html?lang=de&srsltid=AfmBOopUNmHz6U3cwEQYLNa5SY6uYJjlJXVTIyYo5Pg9xWwZsZvt0BsV
Button zum nach oben scrollen