www.wikidata.de-de.nina.az
Uberanpassung englisch overfitting bezeichnet eine bestimmte Korrektur eines Modells an einen vorgegebenen Datensatz In der Statistik bedeutet Uberanpassung die Spezifizierung eines Modells das zu viele erklarende Variablen enthalt Werden dagegen relevante Variablen ausser Acht gelassen siehe Verzerrung durch ausgelassene Variablen spricht man von Unteranpassung englisch underfitting 1 Blau Fehler bzgl Trainingsdatensatzen Rot Fehler bzgl Testdatensatzen Wenn der Fehler bzgl der Testdatensatze steigt wahrend der Fehler bzgl der Trainingsdatensatze fallt dann befindet man sich moglicherweise in einer Uberanpassungssituation Inhaltsverzeichnis 1 Mathematische Definition 2 Statistik 3 Datensatze und uberangepasste Modelle 4 Uberanpassung durch zu hohe Modellkapazitat 5 Kognitive Analogie 6 Strategien zur Vermeidung von Uberanpassung 7 Literatur 8 Weblinks 9 EinzelnachweiseMathematische Definition BearbeitenGegeben sei ein Hypothesenraum H displaystyle H nbsp und eine Hypothese h H displaystyle h in H nbsp Dann wird h displaystyle h nbsp uberangepasst an die Trainingsdaten genannt wenn es eine alternative Hypothese h H displaystyle h in H nbsp gibt sodass h displaystyle h nbsp einen kleineren Fehler gegenuber h displaystyle h nbsp auf den Trainingsdaten aufweist aber h displaystyle h nbsp einen kleineren Fehler als h displaystyle h nbsp in Bezug auf die Verteilung aller Instanzen hat Eine einfache Uberprufung auf Uberanpassung kann die Holdout Methode liefern Statistik BearbeitenIn der multiplen linearen Regression wird mit Uberanpassung ein Modell charakterisiert das zusatzliche irrelevante Regressoren irrelevante erklarende Variablen enthalt Analog enthalt ein mit Unteranpassung charakterisiertes Modell einige oder alle relevanten Regressoren nicht Durch die Aufnahme zusatzlicher Regressoren kann das Bestimmtheitsmass R 2 displaystyle mathit R 2 nbsp das die Gute der Anpassung des Modells an die Daten der Stichprobe misst nicht sinken siehe Bestimmtheitsmass Das adjustierte Bestimmtheitsmass Durch Zufallseffekte konnen so irrelevante Regressoren zur Erklarung der Varianz beitragen und das Bestimmtheitsmass kunstlich erhohen Uberanpassung ist als negativ zu beurteilen weil also die tatsachliche geringere Anpassungsgute verschleiert wird und das Modell zwar besser auf die Daten der Stichprobe angepasst wird allerdings aufgrund fehlender Generalitat keine Ubertragbarkeit auf die Grundgesamtheit besteht Regressionskoeffizienten erscheinen falschlicherweise als nicht signifikant da ihre Wirkung nicht mehr hinreichend genau geschatzt werden kann Die Schatzer sind ineffizient d h ihre Varianz ist nicht mehr minimal Gleichzeitig wachst die Gefahr dass irrelevante Variablen aufgrund von Zufallseffekten als statistisch signifikant erscheinen 2 Uberanpassung verschlechtert so die Schatzeigenschaften des Modells insbesondere auch dadurch dass eine zunehmende Anzahl von Regressoren die Anzahl der Freiheitsgrade verringert 3 Grosse Unterschiede zwischen dem unkorrigierten und dem korrigierten Bestimmtheitsmass deuten auf Uberanpassung hin Uberanpassung kann vor allem durch sachlogische Uberlegungen und durch Anwendung einer Faktorenanalyse entgegengewirkt werden Datensatze und uberangepasste Modelle BearbeitenZunachst ist die Auswahl des Datensatzes insbesondere die Zahl von Beobachtungen Messpunkten oder Stichproben ein wesentliches Kriterium fur eine seriose und erfolgreiche Modellbildung Sonst erlauben die aus diesen Daten gewonnenen Annahmen uberhaupt keine Ruckschlusse auf die Wirklichkeit Dies gilt auch insbesondere fur statistische Aussagen Die maximal mogliche Komplexitat des Modells ohne uberanzupassen ist proportional zur Reprasentativitat der Trainingsmenge und somit auch zu deren Grosse bei gegebenem Signal Rausch Verhaltnis Hieraus entsteht ebenfalls eine Interdependenz zur Verzerrung in endlichen Stichproben englischfinite sample bias so dass eine moglichst abdeckende und umfangreiche Trainingsdatensammlung anzustreben ist Anders ausgedruckt Wer versucht in vorhandenen Daten nach Regeln oder Trends zu suchen der muss geeignete Daten wahlen Wer eine Aussage uber die haufigsten Buchstaben des deutschen Alphabets treffen mochte sollte dafur nicht nur einen einzelnen Satz betrachten zumal wenn in diesem der Buchstabe E selten vorkommt Uberanpassung durch zu hohe Modellkapazitat Bearbeiten Hauptartikel Verzerrung Varianz Dilemma Bei der rechnergestutzten Modellbildung kommt ein zweiter Effekt hinzu Hier wird in mehreren Trainingsschritten ein Datenmodell an vorhandene Trainingsdaten angepasst Beispielsweise kann mit einigen Dutzend Schriftproben ein Rechner trainiert werden dass er handgeschriebene Ziffern 0 9 richtig erkennt und zuordnet Das Ziel ist hierbei auch Handschriften von Personen erkennen zu konnen deren Handschrift gar nicht in dem Trainingssatz enthalten war Folgende Erfahrung wird haufig gemacht Die Erkennungsleistung fur geschriebene Ziffern unbekannter Personen mit zunehmender Anzahl der Trainingsschritte nimmt zunachst zu Nach einer Sattigungsphase nimmt sie aber wieder ab weil sich die Datenreprasentation des Rechners zu sehr an die Schreibweise der Trainingsdaten anpasst und nicht mehr an den zugrundeliegenden Formen der zu lernenden Ziffern selbst orientiert Dieser Prozess hat den Begriff Uberanpassung im Kern gepragt auch wenn der Zustand der Uberangepasstheit wie oben beschrieben eine Reihe von Grunden haben kann Wenn mit dem Modell kein Einsatz uber die Trainingsmenge hinaus geplant ist wenn also nur ein Modell fur eine abgeschlossene Problemstellung gelost wird kann naturlich von Uberanpassung nicht die Rede sein Ein Beispiel hierfur ware wenn nur ein Rechnermodell fur die abgeschlossene Menge von Vorfahrtsituationen im Strassenverkehr gesucht wird Solche Modelle sind deutlich weniger komplex als das oben genannte und meistens kennt man die Regeln schon so dass von Menschen verfasste Programme hier meist effizienter sind als maschinelles Lernen Mit anderen Worten das Modell merkt sich viele Beispiele anstatt zu lernen Merkmale zu bemerken Kognitive Analogie BearbeitenEin uberangepasstes Modell mag zwar die Trainingsdaten korrekt wiedergeben da es sie sozusagen auswendig gelernt hat Eine Generalisierungsleistung was einer intelligenten Klassifikation gleichkommt ist allerdings nicht mehr moglich Das Gedachtnis des Modells ist zu gross so dass keine Regeln gelernt werden mussen Strategien zur Vermeidung von Uberanpassung BearbeitenWie bereits erwahnt ist es gunstig bei parametrischen Modellen eine moglichst geringe Anzahl an Parametern anzustreben Bei nichtparametrischen Verfahren ist es analog ratsam die Anzahl der Freiheitsgrade ebenso von vornherein einzuschranken Auf ein mehrlagiges Perzeptron wurde das zum Beispiel eine Beschrankung in der Grosse der verdeckten Neuronenschichten englisch hidden layers bedeuten Eine Verringerung der Anzahl der notwendigen Parameter Freiheitsgrade kann in komplexen Fallen auch dadurch ermoglicht werden dass vor dem eigentlichen Klassifikations Regressionsschritt eine Transformation der Daten durchgefuhrt wird Insbesondere waren hier Verfahren zur Dimensionsreduktion unter Umstanden sinnvoll Hauptkomponentenanalyse Unabhangigkeitsanalyse oder Ahnliche Von der Trainingsdauer abhangige Uberanpassung im Maschinellen Lernen kann auch durch Early Stopping verhindert werden Zur Erkennung werden Datensatze haufig nicht nur 2 fach aufgeteilt und einer Trainings und Validierungsmenge zugeordnet sondern es kann zum Beispiel eine 3 fache Aufteilung erfolgen Wobei die Mengen respektive und exklusiv zum Training zur Echtzeitkontrolle des Out Of Sample Fehlers und gegebenenfalls Trainingsabbruch bei Anstieg und zur endgultigen Bestimmung der Testgute verwandt werden nbsp Verrauschte ungefahr lineare Daten lassen sich sowohl durch eine lineare als auch durch eine polynomiale Funktion beschreiben Obwohl die polynomiale Funktion durch jeden Datenpunkt geht anders als die lineare beschreibt die lineare Funktion den Verlauf besser da sie keine grosseren Abweichungen an den Enden hat Wenn die Regressionskurve zum Extrapolieren der Daten benutzt wurde ware die Uberanpassung noch grosser Regularisierung kann zur Vermeidung von Uberanpassung verwendet werden siehe Shrinkage Schatzer Literatur BearbeitenMichael Berthold David J Hand Intelligent Data Analysis An Introduction Springer Verlag 2003 ISBN 3 540 43060 1 Tom M Mitchell Machine Learning McGraw Hill Companies Inc 1997 ISBN 0 07 115467 1Weblinks BearbeitenExplore overfitting and underfitting In colab research google com Abgerufen am 1 November 2018 Einzelnachweise Bearbeiten Backhaus K Erichson B Plinke W Weiber R Multivariate Analysemethoden Eine anwendungsorientierte Einfuhrung Berlin u a 11 Auflage 2006 S 84 85 Backhaus K Erichson B Plinke W Weiber R Multivariate Analysemethoden Eine anwendungsorientierte Einfuhrung Berlin u a 11 Auflage 2006 S 85 Backhaus K Erichson B Plinke W Weiber R Multivariate Analysemethoden Eine anwendungsorientierte Einfuhrung Berlin u a 11 Auflage 2006 S 68 Abgerufen von https de wikipedia org w index php title Uberanpassung amp oldid 233489449