www.wikidata.de-de.nina.az
Die Bayes sche Optimierung ist eine sequenzielle Versuchsplanung fur die globale Optimierung von Black Box Funktionen die keine funktionalen Formen voraussetzt 1 Sie wird in der Regel zur Optimierung von Funktionen eingesetzt die teuer zu bewerten sind Bei der Bayes sche Optimierung wird bestehendes Wissen eingesetzt um neue Datenpunkte zur Auswertung durch die Black Box Funktion vorzuschlagen und so das Optimum zu finden Die vorgeschlagenen Punkte gehen einen Trade off zwischen Exploration und Exploitation ein welcher durch die gewahlte Erfassungsfunktionen beeinflusst wird Inhaltsverzeichnis 1 Geschichte 2 Ausgangslage 3 Strategie 4 Exotische Bayes sche Optimierung 5 Beispiele fur Erfassungsfunktionen 6 Losungsmethoden 7 Anwendungsgebiete 8 Weblinks 9 EinzelnachweiseGeschichte BearbeitenDer Begriff wird im Allgemeinen Jonas Mockus zugeschrieben und ist in seiner Arbeit aus einer Reihe von Veroffentlichungen uber globale Optimierung in den 1970er und 1980er Jahren gepragt 2 3 4 Ausgangslage BearbeitenDie Bayes sche Optimierung wird typischerweise bei Problemen der Form max x A f x textstyle max x in A f x nbsp eingesetzt wobei A textstyle A nbsp eine Menge von Punkten ist x textstyle x nbsp die sich auf weniger als 20 Dimensionen R d d 20 textstyle mathbb R d d leq 20 nbsp und deren Zugehorigkeit leicht bewertet werden kann Die Bayes sche Optimierung ist besonders vorteilhaft fur Probleme bei denen f x textstyle f x nbsp aufgrund seiner Rechenkosten schwer zu bewerten ist Die Zielfunktion f textstyle f nbsp ist kontinuierlich und hat die Form einer unbekannten Struktur die als Black Box bezeichnet wird Bei ihrer Auswertung wird nur f x textstyle f x nbsp beobachtet und seine Ableitungen werden nicht ausgewertet 5 Strategie BearbeitenDa die Zielfunktion f displaystyle f nbsp unbekannt ist besteht die Bayes sche Strategie darin sie als Zufallsfunktion zu behandeln und ihr einen Prior zuzuweisen Der Prior gibt die Uberzeugungen uber das Verhalten der Funktion wieder Nach dem Sammeln der Funktionsbewertungen die als Daten behandelt werden wird der Prior aktualisiert um die Posterior Verteilung uber die Zielfunktion zu bilden Die Posterior Verteilung wird wiederum verwendet um eine Erfassungsfunktion oft auch als Infill Sampling Kriterium bezeichnet zu konstruieren die den nachsten Abfragepunkt bestimmt nbsp Bayes sche Optimierung einer Funktion schwarz mit Gaussschen Prozessen lila Unten sind drei Erfassungsfunktionen blau dargestellt 6 In der Optimierung sollen neue Punkte x t displaystyle x t nbsp vorgeschlagen werden die f displaystyle f nbsp maximieren minimieren Die Bayes sche Optimierung beruht darauf dass ein Surrogatmodell f displaystyle hat f nbsp an der Stelle x A displaystyle x in A nbsp leichter auszuwerten ist als die echte Black Box Funktion f displaystyle f nbsp Typischerweise werden als Surrogatmodelle Gauss Prozesse Parzen Tree Estimator Random Forests oder andere bootstrap aggregated models verwendet Gemeinsam haben diese Schatzmodelle dass sie eine Varianzschatzung und damit eine Schatzung der Verteilung erlauben Diese Varianzsschatzung wird anschliessend in den Erfassungsfunktionen verwendet um nicht nur das mittlere erwartete Optimum zu finden sondern zusatzlich einen Erwartungswert Varianz Trade off einzugehen Punkte x displaystyle x nbsp mit hoher Varianz in der Vorhersage des Surrogatmodells konnten beispielsweise einen deutlich hoheren echten Wert f displaystyle f nbsp aufweisen als das Modell f displaystyle hat f nbsp bisher modelliert hat Punkte mit hoher Chance auf eine mogliche Verbesserung gemessen durch die Erfassungsfunktion werden als neue Punkte zur Auswertung von f displaystyle f nbsp vorgeschlagen Wenn die Auswertung erfolgt ist wird das neue Wertepaar x f x displaystyle x f x nbsp in die Modellierung des Surrogatmodells aufgenommen Es ergeben sich dann neue Punkte mit hoher Chance auf eine mogliche Verbesserung und der Vorgang wird bis zur Konvergenz wiederholt Mit Kenntnis der durch das Surrogatmodell geschatzten bedingten Wahrscheinlichkeitsdichte p f x i displaystyle hat p f x i nbsp kann die Erfassungsfunktion erwartete Verbesserung E I x E f x f x displaystyle EI x E f x f x dagger nbsp 7 geschatzt werden Hierbei ist f x displaystyle f x dagger nbsp der bisher tatsachlich beobachtete Maximalwert der Blackbox Funktiom f displaystyle f nbsp Der bedingte Erwartungswert berechnet sich durch E f x R f p f x d f displaystyle E f x int mathbb R fp f x df nbsp Der neue Vorschlag fur den nachsten zu uberprufenden Punkt ist x t argmax x E I x displaystyle x t text argmax x EI x nbsp Die argmax Funktion kann naherungsweise fur eine endliche Menge an zufalligen Punkten x 1 x n displaystyle x 1 dots x n nbsp ausgewertet werden Die Naherung an argmax ist dann der x Wert welcher den grossten Wert von EI hat Exotische Bayes sche Optimierung BearbeitenProbleme die von der oben gemachten Annahme der leichten Auswertung abweichen werden als exotische Bayes sche Optimierungsprobleme bezeichnet Optimierungsprobleme konnen exotisch werden wenn bekannt ist dass es Rauschen gibt die Auswertungen parallel durchgefuhrt werden die Qualitat der Auswertungen von einem Kompromiss zwischen Schwierigkeit und Genauigkeit abhangt zufallige Umgebungsbedingungen vorhanden sind oder die Auswertung Ableitungen beinhaltet 5 Beispiele fur Erfassungsfunktionen BearbeitenBeispiele fur Erfassungsfunktionen engl acquisition function sind die Verbesserungswahrscheinlichkeit p f x gt f x k displaystyle p f x gt f x dagger kappa nbsp die erwartete Verbesserung die erwarteten Verluste nach Bayes obere k gt 0 displaystyle kappa gt 0 nbsp bzw untere k lt 0 displaystyle kappa lt 0 nbsp Konfidenzgrenzen C B x m x k s x displaystyle CB x hat mu x kappa hat sigma x nbsp Thompson Sampling und Mischformen davon 8 Sie alle stellen einen Kompromiss Trade off zwischen Erkundung und Ausnutzung dar um die Anzahl der Funktionsabfragen zu minimieren Die Bayes sche Optimierung eignet sich daher gut fur Funktionen deren Auswertung teuer ist Losungsmethoden BearbeitenDas Maximum der Erfassungsfunktion wird in der Regel durch Diskretisierung oder mit Hilfe eines eventuell randomisierten Hilfsoptimierers gefunden Erfassungsfunktionen werden mit einem numerischen Optimierungsverfahren wie dem Newtonverfahren oder Quasi Newton Methoden wie dem Broyden Fletcher Goldfarb Shanno Algorithmus maximiert Anwendungsgebiete BearbeitenDer Ansatz wurde zur Losung einer Vielzahl von Problemen angewandt 9 darunter Hyperparameteroptimierung Rangordnungslernen 10 Computergrafik und visuelles Design 11 12 13 Robotik 14 15 16 17 Sensornetzwerke 18 19 automatische Algorithmenkonfiguration 20 21 automatische Toolboxen fur maschinelles Lernen 22 23 24 Reinforcement Learning Planung visuelle Aufmerksamkeit Architekturkonfiguration beim Deep Learning statische Programmanalyse experimentelle Teilchenphysik 25 26 Chemie Materialdesign 27 28 29 und Arzneimittelentwicklung 5 30 31 Weblinks BearbeitenSpearmint a Python implementation focused on parallel and cluster computing SMAC an implementation of random forest based Bayesian optimization for general algorithm configuration MOE MOE is a Python C CUDA implementation of Bayesian Global Optimization using Gaussian Processes scikit optimize a Python implementation of Bayesian optimization BoTorch a modular and modern PyTorch based open source library for Bayesian optimization research with support for GPyTorch GPflowOpt a TensorFlow based open source package for Bayesian optimization Einzelnachweise Bearbeiten Jonas Mockus 2012 Bayesian approach to global optimization theory and applications Kluwer Academic Jonas Mockus On Bayesian Methods for Seeking the Extremum Optimization Techniques 1974 400 404 doi 10 1007 3 540 07165 2 55 Jonas Mockus On Bayesian Methods for Seeking the Extremum and their Application IFIP Congress 1977 S 195 200 J Mockus Bayesian Approach to Global Optimization Kluwer Academic Publishers Dordrecht 1989 a b c Peter I Frazier A Tutorial on Bayesian Optimization 8 Juli 2018 doi 10 48550 arXiv 1807 02811 Samuel Wilson Parallelizable Bayesian Optimization Paketbeschreibung auf GitHub 22 November 2019 abgerufen am 14 Juni 2022 Fur diese Definition siehe skopt In der Literatur gibt es auch andere nicht aquivalente Definitionen der erwarteten Verbesserung E I x R max f f x 0 p f x d f displaystyle EI x int mathbb R max f f x dagger 0 p f x df nbsp siehe z B Acquisition functions in Bayesian Optimization Matthew W Hoffman Eric Brochu Nando de Freitas Portfolio Allocation for Bayesian Optimization Uncertainty in Artificial Intelligence 327 336 2011 Eric Brochu Vlad M Cora Nando de Freitas A Tutorial on Bayesian Optimization of Expensive Cost Functions with Application to Active User Modeling and Hierarchical Reinforcement Learning CoRR abs 1012 2599 2010 Eric Brochu Nando de Freitas Abhijeet Ghosh Active Preference Learning with Discrete Choice Data Advances in Neural Information Processing Systems 409 416 2007 Eric Brochu Tyson Brochu Nando de Freitas A Bayesian Interactive Optimization Approach to Procedural Animation Design Symposium on Computer Animation 2010 103 112 Yuki Koyama Issei Sato Daisuke Sakamoto Takeo Igarashi Sequential Line Search for Efficient Visual Design Optimization by Crowds ACM Transactions on Graphics Band 36 Nummer 4 S 48 1 48 11 2017 doi 10 1145 3072959 3073598 Yuki Koyama Issei Sato Masataka Goto Sequential Gallery for Interactive Visual Design Optimization ACM Transactions on Graphics Band 39 Nummer 4 S 88 1 88 12 2020 doi 10 1145 3386569 3392444 arXiv 2005 04107 Daniel J Lizotte Tao Wang Michael H Bowling Dale Schuurmans Automatic Gait Optimization with Gaussian Process Regression Memento des Originals vom 12 August 2017 im Internet Archive nbsp Info Der Archivlink wurde automatisch eingesetzt und noch nicht gepruft Bitte prufe Original und Archivlink gemass Anleitung und entferne dann diesen Hinweis 1 2 Vorlage Webachiv IABot www aaai org International Joint Conference on Artificial Intelligence 944 949 2007 Ruben Martinez Cantin Nando de Freitas Eric Brochu Jose Castellanos and Arnaud Doucet A Bayesian exploration exploitation approach for optimal online sensing and planning with a visually guided mobile robot Autonomous Robots Band 27 Nummer 2 S 93 103 2009 doi 10 1007 s10514 009 9130 2 Scott Kuindersma Roderic Grupen and Andrew Barto Variable Risk Control via Stochastic Optimization International Journal of Robotics Research volume 32 number 7 S 806 825 2013 Roberto Calandra Andre Seyfarth Jan Peters and Marc P Deisenroth Bayesian optimization for learning gaits under uncertainty Ann Math Artif Intell Band 76 Nummer 1 S 5 23 2016 DOI 10 1007 s10472 015 9463 9 Niranjan Srinivas Andreas Krause Sham M Kakade Matthias W Seeger Information Theoretic Regret Bounds for Gaussian Process Optimization in the Bandit Setting IEEE Transactions on Information Theory 58 5 3250 3265 2012 Roman Garnett Michael A Osborne Stephen J Roberts Bayesian optimization for sensor set selection 1 2 Vorlage Toter Link www academia edu Seite nicht mehr abrufbar festgestellt im Juni 2023 Suche in Webarchiven nbsp Info Der Link wurde automatisch als defekt markiert Bitte prufe den Link gemass Anleitung und entferne dann diesen Hinweis ACM IEEE International Conference on Information Processing in Sensor Networks 209 219 2010 Frank Hutter Holger Hoos and Kevin Leyton Brown 2011 Sequential model based optimization for general algorithm configuration Learning and Intelligent Optimization J Snoek H Larochelle R P Adams Practical Bayesian Optimization of Machine Learning Algorithms Advances in Neural Information Processing Systems 2951 2959 2012 J Bergstra D Yamins D D Cox 2013 Hyperopt A Python Library for Optimizing the Hyperparameters of Machine Learning Algorithms Proc SciPy 2013 Chris Thornton Frank Hutter Holger H Hoos Kevin Leyton Brown Auto WEKA combined selection and hyperparameter optimization of classification algorithms KDD 2013 847 855 Jasper Snoek Hugo Larochelle and Ryan Prescott Adams Practical Bayesian Optimization of Machine Learning Algorithms Advances in Neural Information Processing Systems 2012 Philip Ilten Mike Williams Yunjie Yang Event generator tuning using Bayesian optimization 2017 JINST 12 P04028 DOI 10 1088 1748 0221 12 04 P04028 Evaristo Cisbani et al AI optimized detector design for the future Electron Ion Collider the dual radiator RICH case 2020 JINST 15 P05009 DOI 10 1088 1748 0221 15 05 P05009 Tsuyoshi Ueno Trevor David Rhone Zhufeng Hou Teruyasu Mizoguchi Koji Tsuda COMBO An efficient Bayesian optimization library for materials science In Materials Discovery Band 4 Juni 2016 S 18 21 doi 10 1016 j md 2016 04 001 elsevier com abgerufen am 12 Juni 2022 Hud Wahab Vivek Jain Alexander Scott Tyrrell Michael Alan Seas Lars Kotthoff Machine learning assisted fabrication Bayesian optimization of laser induced graphene patterning using in situ Raman analysis In Carbon Band 167 Oktober 2020 S 609 619 doi 10 1016 j carbon 2020 05 087 elsevier com abgerufen am 12 Juni 2022 Yuki K Wakabayashi Takuma Otsuka Yoshiharu Krockenberger Hiroshi Sawada Yoshitaka Taniyasu Machine learning assisted thin film growth Bayesian optimization in molecular beam epitaxy of SrRuO 3 thin films In APL Materials Band 7 Nr 10 1 Oktober 2019 ISSN 2166 532X S 101114 doi 10 1063 1 5123019 Gomez Bombarelli et al Automatic Chemical Design using a Data Driven Continuous Representation of Molecules ACS Central Science Volume 4 Issue 2 268 276 2018 doi 10 1021 acscentsci 7b00572 Griffiths et al Constrained Bayesian Optimization for Automatic Chemical Design using Variational Autoencoders Chemical Science 11 577 586 2020 Abgerufen von https de wikipedia org w index php title Bayes sche Optimierung amp oldid 237262706