www.wikidata.de-de.nina.az
Das Gebiet der Optimierung in der angewandten Mathematik beschaftigt sich damit optimale Parameter eines meist komplexen Systems zu finden Optimal bedeutet dass eine Zielfunktion minimiert oder maximiert wird Optimierungsprobleme stellen sich in der Wirtschaftsmathematik Statistik Operations Research und generell in allen wissenschaftlichen Disziplinen in denen mit unbekannten Parametern gearbeitet wird wie beispielsweise in der Physik der Chemie sowie der Meteorologie Haufig ist eine analytische Losung von Optimierungsproblemen nicht moglich und es mussen numerische Verfahren eingesetzt werden Beispiel einer lokalen OptimierungsaufgabeInhaltsverzeichnis 1 Beispiel eines einfachen Optimierungsproblems 2 Beispiele fur Optimierungsprobleme 3 Abgrenzung 4 Begriffe Zielfunktion Nebenbedingungen zulassige Menge lokale und globale Optimierung 5 Klassifikation 5 1 Skalare Optimierungsprobleme 5 2 Vektoroptimierungsprobleme 6 Lineare und ganzzahlige Optimierung 7 Nichtlineare Optimierung 7 1 Methoden der lokalen nichtlinearen Optimierung mit Nebenbedingungen 7 2 Methoden der lokalen nichtlinearen Optimierung ohne Nebenbedingungen 7 3 Methoden der globalen nichtlinearen Optimierung 8 Theoretische Aussagen 8 1 Konvexe Probleme 8 2 Dualitat 8 3 Lagrange Multiplikatoren 8 4 Straffunktionen 8 5 Erweiterte Lagrange Methode 9 Einzelnachweise 10 Literatur 11 WeblinksBeispiel eines einfachen Optimierungsproblems BearbeitenDas einfachste Optimierungsproblem ist das Auffinden eines Minimums oder Maximums einer differenzierbaren eindimensionalen Funktion f x displaystyle f x nbsp was in der Regel durch Auffinden der Nullstellen der ersten Ableitung gelingt Beispiele fur Optimierungsprobleme Bearbeiten nbsp Beispiel einer globalen OptimierungsaufgabeWirtschaftsmathematik Die Zielfunktion stellt hier meist den Gewinn oder den Umsatz einer Firma dar Parameter sind Rohstoffe Personal Maschineneinsatz Preise usw Die Zielfunktion soll maximiert werden Im Grunde genommen handelt es sich um eine vereinfachte Formalisierung eines grundlegenden Managementproblems Seine systematische Fundierung erhalt es in der Operations Research Statistik Data Mining Statistische Modelle enthalten offene Parameter die geschatzt werden Ein Parametersatz ist optimal wenn die zugehorige Modellinstanz die Datenbeziehungen optimal darstellt d h die Abweichungen der modellierten Daten im Sinne einer passenden Gutefunktion von den empirischen Daten so gering wie moglich also optimal sind Die Zielfunktion kann hier unterschiedlich gewahlt werden zum Beispiel als Fehlerquadratsumme oder als Likelihood Funktion Klimaforschung Klimamodelle stellen vereinfachte numerische Systeme der eigentlichen hydrodynamischen Prozesse in der Atmosphare dar Innerhalb der Gitterzellen mussen die Wechselwirkungen durch Gleichungen approximiert werden Die Gleichungen konnen dabei entweder aus grundlegenden hydrodynamischen Gesetzen abgeleitet werden oder es werden empirische Gleichungen verwendet also im Grunde statistische Modelle deren Parameter so optimiert werden mussen dass die Klimamodelle die tatsachlichen Prozesse moglichst gut darstellen Spieltheorie Erreicht eine Spielerpopulation in einem Superspiel ein Populationsoptimum Oder wenigstens ein Pareto Optimum Ist dieses Gleichgewicht stabil Physik Auswertung von Messkurven indem Parameterwerte einer Theoriefunktion so variiert werden Optimierung im Parameterraum s a Ausgleichsrechnung Fitten dass die Theoriefunktion bestmoglich mit der Messkurve ubereinstimmt Physikalische Systeme streben stets ein Energie Minimum an viele Problemstellungen bestehen gerade darin dieses Energie Minimum zu finden Abgrenzung BearbeitenVerwandt mit der Optimierung ist das Gebiet der Approximation in der Numerik Man kann umgekehrt sagen Ein Approximationsproblem ist das Problem den Abstand die Metrik zweier Funktionen zu minimieren Begriffe Zielfunktion Nebenbedingungen zulassige Menge lokale und globale Optimierung BearbeitenEs sei im Folgenden eine Minimierungsaufgabe angenommen Das was optimiert werden soll zum Beispiel ein Abstand nennt man Zielfunktion Das was variiert wird sind die Parameter oder Variablen der Zielfunktion Bei einer zweidimensionalen Optimierungsaufgabe also zwei unabhangige Parameter kann man sich die Zielfunktion raumlich vorstellen indem die Parameter die Langen und Tiefenachse aufspannen Die Hohe ist dann der Zielfunktionswert In der reinen Anschauung entsteht so zumindest bei stetigen Funktionen ein Gebirge mit Bergen und Talern Falls es sich bei der Optimierungsaufgabe tatsachlich um ein Approximationsproblem handelt dann spricht man bei dem Gebirge mitunter auch von der Fittopologie In diesem Fall wird als Zielfunktion in den allermeisten Fallen die Fehlerquadratsumme eingesetzt siehe Details im Artikel Methode der kleinsten Quadrate Da die Zielfunktion ein Gebirge darstellt ist das Optimierungsproblem damit gleichzusetzen in diesem Gebirge das tiefste Tal Minimierung oder den hochsten Gipfel Maximum zu finden Der Aufwand zur Losung der Aufgabe hangt entscheidend von der Form des Gebirges ab Extrembeispiel fur eine Minimierungsaufgabe ware eine absolut flache Ebene aus der an zufalligen Punkten einzelne nadelformige Spitzen herausragen In diesem Fall hilft keinerlei Suchalgorithmus man kann nur zufallig suchen Monte Carlo Methode oder systematisch die gesamte Flache abrastern Einer der einfachsten Falle einer zweidimensionalen Optimierungsaufgabe liegt vor wenn das Gebirge die Form einer um die Hohenachse symmetrischen Parabel hat deren Scheitelpunkt zu finden ist Besteht die Optimierungsaufgabe darin von einem gegebenen Punkt im Gebirge aus das nachste relative lokale Minimum oder Maximum in der Nachbarschaft zu finden dann spricht man von lokaler Optimierung Besteht die Aufgabe darin das absolute Minimum oder Maximum im gesamten Gebirge zu finden dann spricht man von globaler Optimierung Die beiden Aufgaben haben einen stark unterschiedlichen Schwierigkeitsgrad Fur die lokale Optimierung gibt es zahlreiche Methoden die alle mehr oder weniger schnell in allen nicht allzu schwierigen Fallen mit grosser Sicherheit zum Ziel fuhren Bei der globalen Optimierung hangt die Losbarkeit der Aufgabe im Rahmen eines gegebenen oder realisierbaren Rechenbudgets sehr stark von der Zielfunktionstopologie ab Haufig ist man nur an solchen Werten fur die Parameter interessiert die zusatzliche Nebenbedingungen NB erfullen Gelten diese Nebenbedingungen nur am Rande des Definitionsbereichs der Funktion heissen sie auch Randbedingungen Sie konnen in Form von Gleichungen oder Ungleichungen gegeben sein oder explizit eine Menge beschreiben zum Beispiel nur ganzzahlige Losungen Die Menge aller Parameterwerte die alle NB erfullen bezeichnet man als zulassige Menge Bei dem Gebirge wurden die NB das Gebiet in dem gesucht wird eingrenzen Das betrachtete Optimierungsproblem nennt man zulassig wenn die zulassige Menge also das abzusuchende Gebiet nicht leer ist Man unterscheidet aktive und passive Nebenbedingungen Eine NB der Form g x 0 displaystyle g x leq 0 nbsp ist aktiv wenn das Optimum auf dem Rand des zulassigen Bereiches liegt und daher Gleichheit g x 0 displaystyle g x 0 nbsp vorliegt Ware die NB passiv wurde sie im Optimum keine Einschrankung darstellen das Optimum liegt also im Gebiet und nicht auf dem Rand Eine NB der Form h x 0 displaystyle h x 0 nbsp ist immer aktiv Klassifikation BearbeitenSkalare Optimierungsprobleme Bearbeiten Ein skalares Optimierungsproblem lasst sich mathematisch als Minimiere maximiere f x displaystyle f x nbsp unter der Nebenbedingung x X displaystyle x in X nbsp darstellen hierbei ist f V R displaystyle f colon V to mathbb R nbsp eine reellwertige Funktion und X V displaystyle X subseteq V nbsp Haufig ist die zulassige Menge X displaystyle X nbsp indirekt durch eine Funktion gegeben gewohnlich standardisiert in der Form X x V g x 0 displaystyle X x in V g x leq 0 nbsp mit einer vektorwertigen Funktion g V R m displaystyle g colon V to mathbb R m nbsp der Vergleich bedeutet keine Komponente von g x displaystyle g x nbsp darf positiv sein Je nach Form von V X f g displaystyle V X f g nbsp lassen sich skalare Optimierungsprobleme wie folgt klassifizieren Variationsproblem V displaystyle V nbsp ist unendlichdimensional speziell ein Funktionenraum Optimales Steuerungsproblem Klassisches Variationsproblem mit Differentialgleichungsnebenbedingung Lineares Programm LP V R n g A x b displaystyle V mathbb R n g Ax b nbsp wobei A R m n displaystyle A in mathbb R m times n nbsp ist affin f c T x displaystyle f c T x nbsp ist linear Quadratisches Programm QP wie oben nur ist f displaystyle f nbsp eine quadratische Funktion Quadratisches Programm mit quadratischen Nebenbedingungen QCQP Nichtlineares Programm f g displaystyle f g nbsp sind beliebige Funktionen meist stetig differenzierbar angenommen in der engeren Umgebung eines Optimums kann oft eine quadratische Naherung verwendet werden was zu einigen der praktischen Verfahren fuhrt Ganzzahliges Programm auch diskretes Programm Zusatzlich sind die zulassigen x displaystyle x nbsp auf ganzzahlige oder allgemeiner diskrete Werte beschrankt Stochastisches Programm Einige Parameter in der Beschreibung von f g displaystyle f g nbsp sind unbekannt aber ihre Zufallsverteilung ist bekannt Konvexes Programm X displaystyle X nbsp ist konvex und f displaystyle f nbsp ist konvex konkav falls minimiert maximiert wird Konvexe Programme enthalten als Spezialfall Konische Programme Es werden verallgemeinerte Ungleichungen verwendet ansonsten sind alle Funktionen affin Konische Programme haben wiederum drei Teilgebiete Semidefinite Programme verwenden den Kegel der positiv semidefiniten Matrizen haben also als Variable eine Matrix Die SOCPs Second Order Cone Program verwenden den second order cone der auch Lorentz Kegel genannt wird Auch lineare Optimierungsprobleme lassen sich als konische Programme formulieren Unter gewissen Voraussetzungen fallen auch Quadratische Programme und Quadratische Programme mit quadratischen Nebenbedingungen unter die konvexe Optimierung Geometrische Programme sind an sich nicht konvex lassen sich aber in ein konvexes Problem uberfuhren Jedes dieser Teilgebiete der Optimierung hat speziell auf die Struktur des Problems abgestimmte Losungsverfahren Hinweis zur Terminologie Programm ist als Synonym zu Optimierungsproblem zu verstehen und nicht als Computerprogramm Die Verwendung des Begriffes Programm ist historisch begrundet Die ersten Anwendungen der Optimierung waren militarische Probleme bei denen ein Aktionsplan engl program of actions zu finden war 1 Vektoroptimierungsprobleme Bearbeiten Ein Optimierungsproblem aus der Vektoroptimierung auch Pareto Optimierung genannt ist dagegen ein Problem bei dem die Werte mehrerer Zielfunktionen gleichzeitig zu optimieren sind Dies lasst sich formalisieren indem eine vektorwertige Zielfunktion f V R n displaystyle f colon V to mathbb R n nbsp optimiert wird Losungen die alle Komponenten der Zielfunktion gleichzeitig zu einem Optimum fuhren sind in der Regel nicht vorhanden vielmehr ergibt sich im Allgemeinen eine grossere Losungsmenge aus der zum Beispiel durch eine Skalarisierung Gewichtung der Einzelkomponenten der Zielfunktion ein einzelner Optimalpunkt selektiert werden kann Lineare und ganzzahlige Optimierung BearbeitenEin wichtiger Spezialfall ist die lineare Optimierung Hierbei ist die Zielfunktion linear und die Nebenbedingungen sind durch ein System linearer Gleichungen und Ungleichungen darstellbar Jedes lokale Optimum ist automatisch auch globales Optimum da der zulassige Bereich konvex ist Es gibt Pivotverfahren um das globale Optimum im Prinzip exakt zu berechnen wovon die bekanntesten die Simplex Verfahren sind nicht zu verwechseln mit dem Downhill Simplex Verfahren weiter unten Seit den 1990er Jahren gibt es allerdings auch effiziente Innere Punkte Verfahren die bei bestimmten Arten von Optimierungsproblemen konkurrenzfahig zum Simplex Verfahren sein konnen Eine Beschrankung auf ganzzahlige Variablen macht das Problem deutlich schwerer erweitert aber gleichzeitig die Anwendungsmoglichkeiten Diese sogenannte ganzzahlige lineare Optimierung wird beispielsweise in der Produktionsplanung im Scheduling in der Tourenplanung oder in der Planung von Telekommunikations oder Verkehrsnetzen eingesetzt Nichtlineare Optimierung Bearbeiten Hauptartikel Nichtlineare Optimierung Methoden der lokalen nichtlinearen Optimierung mit Nebenbedingungen Bearbeiten Schwieriger als die lineare Optimierung ist der Fall der nichtlinearen Optimierung bei der die Zielfunktion die Nebenbedingungen NB oder beide nichtlinear vorliegen Die Losung wird erreicht indem das Problem auf die Optimierung einer Hilfsfunktion ohne NB zuruckgefuhrt wird Auf dieses neue Problem konnen dann die Methoden der nichtlinearen Optimierung ohne NB unten angewendet werden Das Vorgehen soll anhand eines Kontaktproblems erlautert werden Zwei Kugeln in einer Mulde versuchen den tiefstmoglichen Punkt einzunehmen durfen sich dabei aber nicht durchdringen Die Zielfunktion ist also die Lageenergie der Kugeln und nimmt im Gleichgewicht ein Minimum an Die Nebenbedingung g x y 0 displaystyle g x y leq 0 nbsp wurde hier die Durchdringung der Kugeln x displaystyle x nbsp und y displaystyle y nbsp bezeichnen wobei mit negativer Durchdringung ein positiver Abstand gemeint wird Fur die Konstruktion der Hilfsfunktion liegen funf Methoden vor Lagrange Multiplikatoren Die NB werden mit reellen Faktoren den Lagrange Multiplikatoren multipliziert und zur Zielfunktion hinzuaddiert Die Faktoren werden als Unbekannte in das Problem eingefuhrt und mussen unter Einhaltung der Karush Kuhn Tucker Bedingungen ebenfalls bestimmt werden Bei den Kugeln sind die Lagrange Multiplikatoren gerade die Kontaktkrafte die die Kugeln bei Beruhrung aufeinander ausuben so dass sie sich nicht durchdringen Straffunktionen Die NB werden mit Straffunktionen dargestellt die im Definitionsbereich verschwinden und bei Verletzung der NB negativ sind Die Straffunktionen werden mit Strafparametern multipliziert und zur Zielfunktion addiert bei Maximierung ansonsten Subtraktion so dass die Verletzung der NB also bestraft wird daher der Name Hier werden aktive NB evtl verletzt und die Zulassigkeit der Losung muss gepruft werden Im Kugel Bild entspricht die Straffunktion der echten Durchdringung min 0 g x y displaystyle min 0 g x y nbsp die also bei positivem Abstand verschwindet und der Strafparameter entspricht einer Federsteifigkeit Die Feder versucht eindringende Punkte wieder an die Oberflache zu ziehen Je steifer die Feder ausfallt desto geringer wird die Eindringung sein Barrierefunktionen Die Barrierefunktionen werden wie die Straffunktionen eingesetzt Allerdings haben sie bereits bei Annaherung an die Grenze des Definitionsbereiches negative Werte und wachsen auf der Grenze ins Unendliche Im Kugelbild bekamen die Kugeln einen mehr oder weniger dicken Mantel der immer steifer wird je starker er bei Beruhrung zusammengedruckt wird Eine Verletzung der NB wird so verhindert zu dem Preis dass bereits die Annaherung an den Rand bestraft wird Erweiterte Lagrange Methode engl augmented lagrange method Dies ist eine Kombination der vorhergehenden Methoden Der Lagrange Multiplikator wird iterativ anhand der Verletzung der NB bestimmt Trivial aber doch zu erwahnen ist dass aktive NB dazu genutzt werden konnen Parameter der Zielfunktion zu eliminieren Die Parameter werden auf Werte festgelegt derart dass eine Verletzung der NB nunmehr unmoglich ist Im Kugel Bild wurde man Beruhrungspunkte der Kugeln aneinanderkoppeln ihre Koordinaten gleichsetzen so dass eine Durchdringung dort nicht mehr stattfinden kann Methoden der lokalen nichtlinearen Optimierung ohne Nebenbedingungen Bearbeiten Bei der lokalen Optimierung hangt die Wahl der Methode von der genauen Problemstellung ab Handelt es sich um eine beliebig exakt bestimmte Zielfunktion Das ist bei stochastischen Zielfunktionen oft nicht der Fall Ist die Zielfunktion in der Umgebung streng monoton nur monoton oder konnte es unterwegs sogar kleine relative Extrema geben Wie hoch sind die Kosten einen Gradienten zu bestimmen Beispiele fur Methoden Ableitungsfreie Methoden Intervallhalbierungsverfahren Verfahren des goldenen Schnitts und andere Verfahren zur Optimierung eindimensionaler Funktionen oder zur Liniensuche sequentiellen Suche bei mehrdimensionalen Funktionen Downhill Simplex Verfahren Trust Region VerfahrenDiese Methoden kosten viele Iterationen sind aber teilweise relativ robust gegenuber Problemen in der Zielfunktion zum Beispiel kleine relative Extrema und sie verlangen nicht die Berechnung eines Gradienten Letzteres kann sehr kostspielig sein wenn lediglich ein relativ ungenaues Ergebnis angestrebt wird Verfahren fur die die 1 Ableitung benotigt wird Sekantenverfahren zum Bestimmen der Nullstelle der 1 Ableitung Gradientenverfahren und Konjugierte Gradienten Verfahren Quasi Newton VerfahrenDiese Methoden sind schneller als die ableitungsfreien Methoden sofern ein Gradient schnell berechnet werden kann und sie sind ahnlich robust wie die ableitungsfreien Methoden Verfahren fur die die 2 Ableitung benotigt wird Newton Verfahren bzw Newton Raphson Verfahren Gemeinhin ist das Newton Verfahren als Verfahren zur Bestimmung einer Nullstelle bekannt und benotigt die erste Ableitung Dementsprechend lasst es sich auch auf die Ableitung einer Zielfunktion anwenden da die Optimierungsaufgabe auf die Bestimmung der Nullstellen der 1 Ableitung hinauslauft Das Newton Verfahren ist sehr schnell aber sehr wenig robust Wenn man sich der Gutartigkeit seines Optimierungsproblems nicht sicher ist muss man zusatzlich Globalisierungsstrategien wie Schrittweitensuche oder Trust Region Verfahren verwenden Fur die in der Praxis haufig auftretenden Probleme in denen die zu minimierende Zielfunktion die spezielle Gestalt des Normquadrates einer vektorwertigen Funktion hat Methode der kleinsten Quadrate least squares steht das Gauss Newton Verfahren zur Verfugung das sich im Prinzip zu Nutze macht dass fur Funktionen dieser Form unter bestimmten Zusatzannahmen die teure 2 Ableitung Hesse Matrix sehr gut ohne ihre explizite Berechnung als Funktion der Jacobi Matrix angenahert werden kann So wird in Zielnahe eine dem Newton Verfahren ahnliche super lineare Konvergenzgeschwindigkeit erreicht Da dieses Verfahren die Stabilitatsprobleme des Newton Verfahrens geerbt hat sind auch hier sog Globalisierungs und Stabilisierungsstrategien erforderlich um die Konvergenz zumindest zum nachsten lokalen Minimum garantieren zu konnen Eine populare Variante ist hier der Levenberg Marquardt Algorithmus Methoden der globalen nichtlinearen Optimierung Bearbeiten Im Gegensatz zur lokalen Optimierung ist die globale Optimierung ein quasi ungelostes Problem der Mathematik Es gibt praktisch keinerlei Methoden bei deren Anwendung man in den meisten Fallen als Ergebnis einen Punkt erhalt der mit Sicherheit oder auch nur grosser Wahrscheinlichkeit das absolute Extremum darstellt Allen Methoden zur globalen Optimierung gemein ist dass sie wiederholt nach einem bestimmten System lokale Minima Maxima aufsuchen Am haufigsten werden hier Evolutionare Algorithmen angewandt Diese liefern besonders dann ein gutes Ergebnis wenn die Anordnung der relativen Minima und Maxima eine gewisse Gesetzmassigkeit aufweisen deren Kenntnis vererbt werden kann Eine ganz gute Methode kann auch sein die Ausgangspunkte fur die Suche nach lokalen Minima Maxima zufallig zu wahlen um dann mittels statistischer Methoden die Suchergebnisse nach Regelmassigkeiten zu untersuchen Oft wird allerdings in der Praxis das eigentliche Suchkriterium nicht genugend reflektiert So ist es oft viel wichtiger nicht das globale Optimum zu finden sondern ein Parametergebiet innerhalb dessen sich moglichst viele relative Minima befinden Hier eignen sich dann Methoden der Clusteranalyse oder neuronale Netze Weitere Methoden der nichtlinearen globalen Optimierung Naturanaloge Optimierungsverfahren Sintflutalgorithmus great deluge algorithm Simulierte Abkuhlung simulated annealing Metropolisalgorithmus Schwellenakzeptanz threshold accepting Ameisenalgorithmus ant colony optimization Partikelschwarmoptimierung Sonstige Verfahren Bergsteigeralgorithmus hill climbing Stochastisches Tunneln Stochastic tunneling RANSAC Algorithmus zur besseren Handhabung von Messdaten mit Ausreissern Primal Dual Active Set Algorithmus zur Losung eines quadratischen Optimierungsproblems uber einer konvexen Teilmenge S displaystyle S nbsp eines Hilbertraumes V displaystyle V nbsp uber der Menge W displaystyle Omega nbsp Die Performance von Optimierungsalgorithmen wird oft anhand von Testproblemen mit komplexer Struktur der Minima oder Maxima analysiert bei denen die exakte Losung bekannt ist Ein Beispiel fur eine solche Testfunktion ist die Rastrigin Funktion Theoretische Aussagen BearbeitenBei der Optimierung einer differenzierbaren Funktion f x displaystyle f x nbsp ohne Nebenbedingungen ist bekannt dass Minima Maxima nur an Stellen mit f x 0 displaystyle nabla f x 0 nbsp sein konnen Diese Bedingung wird bei der Konstruktion vieler Losungsverfahren ausgenutzt In dem Fall der Optimierung mit Nebenbedingungen gibt es analoge theoretische Aussagen Dualitat und Lagrange Multiplikatoren Konvexe Probleme Bearbeiten Hauptartikel Konvexe Optimierung Bei konvexen Problemen ist das abzusuchende Gebiet und die Zielfunktion konvex Bei einem konvexen Gebiet liegen alle Punkte auf der Verbindungslinie zweier beliebiger Punkte im Gebiet ebenfalls vollstandig im Gebiet Mathematisch l 0 1 x l y x X x y X displaystyle lambda in 0 1 Rightarrow x lambda y x in X quad forall x y in X nbsp Beispiele fur konvexe Gebiete sind Kreise Ellipsen Dreiecke und Quadrate Die Zielfunktion ist konvex wenn alle Werte der Zielfunktion von Punkten auf der Geraden die zwei Punkte im Gebiet verbinden unter dieser Geraden liegen Mathematisch l 0 1 f x l y x f x l f y f x x y X displaystyle lambda in 0 1 Rightarrow f x lambda y x leq f x lambda f y f x quad forall x y in X nbsp Die zu Beginn dieses Artikels gezeigte parabelformige Optimierungsaufgabe hat eine konvexe Zielfunktion Bei konvexen Problemen ist jedes lokale Minimum auch globales Minimum Sind die Punkte x i i 1 n displaystyle x i i 1 dotsc n nbsp optimal dann sind alle Punkte zwischen diesen Punkten optimal Mathematisch a 1 a 2 a n 0 1 i 1 n a i 1 f i 1 n a i x i f opt displaystyle alpha 1 alpha 2 dotsc alpha n in 0 1 wedge sum i 1 n alpha i 1 quad Rightarrow quad f left sum i 1 n alpha i x i right f text opt nbsp Dualitat Bearbeiten Das einem Optimierungsproblem min f x g x 0 displaystyle min f x g x 0 nbsp zugeordnete Lagrange duale Problem ist max l min x L x l displaystyle max lambda min x mathcal L x lambda nbsp wobei L x l f x l T g x displaystyle mathcal L x lambda f x lambda T g x nbsp die zugehorige Lagrange Funktion ist Die l displaystyle lambda nbsp heissen hierbei Lagrange Multiplikatoren oder auch duale Variablen oder Schattenpreise Anschaulich erlaubt man eine Verletzung der Nebenbedingungen bestraft sie aber in der Zielfunktion durch Zusatzkosten l displaystyle lambda nbsp pro verletzter Einheit Eine Losung l displaystyle lambda nbsp fur die es sich nicht lohnt die Nebenbedingungen zu verletzen lost das duale Problem Fur konvexe insbesondere lineare Probleme ist der Wert des dualen Problems gleich dem Wert des Ursprungsproblems Fur lineare und konvexe quadratische Probleme lasst sich die innere Minimierung geschlossen losen und das duale Problem ist wieder ein lineares oder konvexes quadratisches Problem Lagrange Multiplikatoren Bearbeiten Der Lagrange Multiplikatorsatz besagt dass Losungen des eingeschrankten Optimierungsproblems min x f x g x 0 displaystyle min x f x g x 0 nbsp nur an Stellen x displaystyle x nbsp zu finden sind an denen es Lagrange Multiplikatoren l i displaystyle lambda i nbsp gibt die die Bedingung x L x l f x i l i g i x 0 displaystyle nabla x mathcal L x lambda nabla f x sum i lambda i nabla g i x 0 nbsp erfullen Diese Bedingung ist die direkte Verallgemeinerung der obigen Ableitungsbedingung Wie diese gibt der Lagrange Multiplikatorensatz eine notwendige Bedingung fur ein Minimum bzw Maximum Eine hinreichende Bedingung kann durch Betrachtung der zweiten Ableitungen gewonnen werden Der Lagrange Multiplikatorensatz gilt nur fur den Fall dass die Nebenbedingungen durch Gleichungen gegeben sind Die Verallgemeinerung auf Ungleichungen min x f x g x 0 displaystyle min x f x g x leq 0 nbsp gibt der Satz von Karush Kuhn Tucker Straffunktionen Bearbeiten Im Grenzwert der gegen unendlich gehenden Strafparameter geht die mit Straffunktionen gefundene Losung in die mit den Lagrange Multiplikatoren gefundene Losung uber Erweiterte Lagrange Methode Bearbeiten Im Grenzwert unendlich vieler Iterationen strebt die mit der erweiterten Lagrange Methode gefundene Losung auch gegen die mit den Lagrange Multiplikatoren gefundene Losung Einzelnachweise Bearbeiten Father of linear programming Memento vom 11 November 2009 im Internet Archive In informs orgLiteratur BearbeitenWalter Alt Nichtlineare Optimierung Eine Einfuhrung in Theorie Verfahren und Anwendungen Vieweg 2002 ISBN 3 528 03193 X Yonathan Bard Nonlinear Parameter Estimation Academic Press New York 1974 ISBN 0 12 078250 2 Hans Benker Mathematische Optimierung mit Computeralgebrasystemen Springer Verlag Berlin Heidelberg New York 2003 S Boyd L Vandenberghe Convex Optimization Cambridge University Press 2004 online W Domschke A Drexl Einfuhrung in Operations Research 7 Auflage Springer Berlin 2007 ISBN 978 3 540 70948 0 R Fletcher Practical Methods of Optimization Wiley 1987 ISBN 0 471 91547 5 U Hoffmann H Hofmann Einfuhrung in die Optimierung mit Anwendungsbeispielen aus dem Chemie Ingenieur Wesen Verlag Chemie Weinheim 1971 ISBN 3 527 25340 8 R Horst P M Pardalos Hrsg Handbook of Global Optimization Kluwer Dordrecht 1995 ISBN 0 7923 3120 6 F Jarre J Stoer Optimierung Springer 2004 ISBN 3 540 43575 1 eingeschrankte Vorschau in der Google Buchsuche J Nocedal S J Wright Numerical Optimization Springer Berlin 1999 ISBN 0 387 98793 2 C Geiger C Kanzow Theorie und Numerik restringierter Optimierungsaufgaben Springer 2002 ISBN 3 540 42790 2 eingeschrankte Vorschau in der Google Buchsuche C Grossmann J Terno Numerik der Optimierung Teubner Studienbucher 1997 ISBN 3 519 12090 9 eingeschrankte Vorschau in der Google BuchsucheWeblinks Bearbeiten nbsp Commons Optimization Sammlung von Bildern Videos und Audiodateien Literatur zur Optimierung im Katalog der Deutschen Nationalbibliothek Allgemeine Link Seite zur globalen Optimierung engl Einfuhrung in die numerische Optimierung NEOS Optimization Guide engl Entscheidungsbaum fur Optimierungssoftware engl Global Optimization Algorithms Theory and Application engl PDF Datei 13 14 MB Normdaten Sachbegriff GND 4043664 0 lobid OGND AKS Abgerufen von https de wikipedia org w index php title Optimierung Mathematik amp oldid 235907900