www.wikidata.de-de.nina.az
Dieser Artikel oder nachfolgende Abschnitt ist nicht hinreichend mit Belegen beispielsweise Einzelnachweisen ausgestattet Angaben ohne ausreichenden Beleg konnten demnachst entfernt werden Bitte hilf Wikipedia indem du die Angaben recherchierst und gute Belege einfugst Kreuzvalidierungsverfahren sind auf Resampling basierende Testverfahren der Statistik die z B im Data Mining die zuverlassige Bewertung von Maschinen gelernten Algorithmen erlauben Es wird unterschieden zwischen der einfachen Kreuzvalidierung der stratifizierten Kreuzvalidierung und der Leave One Out Kreuzvalidierung Inhaltsverzeichnis 1 Problemstellung 2 Einfache Kreuzvalidierung 3 Stratifizierte Kreuzvalidierung 4 Leave One Out Kreuzvalidierung 5 Gruppen Kreuzvalidierung 6 Wiederholtes zufalliges Subsampling 7 Holdout Methode 8 Anwendung 9 Beispiel 10 Weblinks 11 EinzelnachweiseProblemstellung Bearbeiten nbsp Das lineare Interpolationspolynom blau als Modell fur die 10 Beobachtungen schwarz hat einen grossen Fehler Unteranpassung Das quadratische Interpolationspolynom grun war die Grundlage die Daten zu generieren Das Interpolationspolynom der Ordnung 9 rot interpoliert die Daten selbst exakt jedoch zwischen den Beobachtungen sehr schlecht Uberanpassung Um einen verlasslichen Wert fur die Anpassungsgute Qualitat eines statistischen Modells zu bekommen gibt es in der Statistik verschiedene Verfahren In der Regel werden dafur Kennzahlen benutzt z B das korrigierte Bestimmtheitsmass in der linearen Regression oder das Akaike oder Bayes Informationskriterium bei Modellen basierend auf der Maximum Likelihood Methode Zum Teil basieren solche Kennzahlen auf asymptotischer Theorie d h sie konnen nur fur grosse Stichprobenumfange verlasslich geschatzt werden Ihre Schatzung bei kleinen Stichprobenumfangen ist daher problematisch Oft ist auch die exakte Zahl der zu schatzenden Parameter die fur die Kennzahl benotigt wird nicht berechenbar ein Beispiel hierfur ist die nichtparametrische Statistik Des Weiteren gibt es das Problem dass zu hoch parametrisierte Modelle dazu tendieren sich zu stark an die Daten anzupassen Ein Beispiel ist die Polynominterpolation Hat man N displaystyle N nbsp Beobachtungen x i y i displaystyle x i y i nbsp kann man ein Interpolationspolynom y x b 0 b 1 x b N 1 x N 1 displaystyle y x b 0 b 1 x b N 1 x N 1 nbsp bestimmen so dass y x i y i displaystyle y x i y i nbsp fur alle i displaystyle i nbsp gilt Zwischen den Beobachtungspunkten werden die Daten jedoch sehr schlecht interpoliert sogenannte Uberanpassung Wurde man nun den Fehler in sample error berechnen so wurde man die Modellqualitat uberschatzen Um den zuvor genannten Problemen zu entgehen wird der Datensatz in zwei Teile geteilt Mit dem ersten Teil werden nur die Modellparameter geschatzt und auf Basis des zweiten Teils wird der Modellfehler berechnet out of sample error Die Verallgemeinerung dieses Verfahrens sind die Kreuzvalidierungsverfahren Einfache Kreuzvalidierung Bearbeiten nbsp Illustration der k fachen Kreuzvalidierung wobei N 12 Beobachtungen vorliegen und k 3 gewahlt wurde Nach dem Mischen der Daten werden 3 Modelle trainiert und getestet Die zur Verfugung stehende Datenmenge bestehend aus N displaystyle N nbsp Elementen wird in k N displaystyle k leq N nbsp moglichst gleich grosse Teilmengen T 1 T k displaystyle T 1 T k nbsp aufgeteilt Nun werden k displaystyle k nbsp Testdurchlaufe gestartet bei denen die jeweils i displaystyle i nbsp te Teilmenge T i displaystyle T i nbsp als Testmenge und die verbleibenden k 1 displaystyle k 1 nbsp Teilmengen T 1 T k T i displaystyle T 1 T k setminus T i nbsp als Trainingsmengen verwendet werden Die Gesamtfehlerquote errechnet sich als Durchschnitt aus den Einzelfehlerquoten der k displaystyle k nbsp Einzeldurchlaufe Diese Testmethode nennt man k fache Kreuzvalidierung Werden die Trainings und Testmengen durch Ziehen ohne Zurucklegen erzeugt dann spricht man von Monte Carlo Cross Validation bzw shuffle split cross validation Stratifizierte Kreuzvalidierung BearbeitenAufbauend auf der einfachen k fachen Kreuzvalidierung achtet die k fache stratifizierte Kreuzvalidierung darauf dass jede der k Teilmengen eine annahernd gleiche Verteilung besitzt Dadurch wird die Varianz der Abschatzung verringert Leave One Out Kreuzvalidierung BearbeitenBei der Leave One Out Kreuzvalidierung engl leave one out cross validation LOO CV handelt es sich um einen Spezialfall der k fachen Kreuzvalidierung bei der k N N Anzahl der Elemente Somit werden N Durchlaufe gestartet und deren Einzelfehlerwerte ergeben als Mittelwert die Gesamtfehlerquote Ein Nachteil dieser Methode ist dass eine Stratifizierung der Teilmengen wie bei der stratifizierten Kreuzvalidierung nicht mehr moglich ist Dadurch kann es in Extremfallen dazu kommen dass dieses Testverfahren falsche Fehlerwerte liefert Beispiel Eine vollstandig zufallige Datenmenge bei gleichmassiger Verteilung und nur zwei Klassen wurde zu einem LOO CV mit einer Genauigkeit von etwa 0 fuhren Aus N Elementen werden zum Training N 2 Elemente der einen Klasse und N 2 1 Elemente der anderen Klasse verwendet Die wahre Fehlerquote betruge jeweils 50 Da der Klassifikator immer den Gegenpart zur Mehrheitsklasse der Testdaten prognostiziert liefert der Test fur jede Klasse die falsche Vorhersage Die daraus ermittelte Gesamtfehlerquote betragt also 100 1 Ein weiterer Nachteil ist dass die Anzahl der Trainingslaufe zu einem sehr hohen Rechenaufwand fuhrt Gruppen Kreuzvalidierung BearbeitenBei der Gruppen Kreuzvalidierung engl Group cross validation G CV oder leave one cluster out cross validation LOCO CV handelt es sich um eine Art der Kreuzvalidierung bei der die Daten mit Hilfe von Domanenwissen in Cluster eingeteilt werden 2 Danach werden die Daten auf einem oder mehreren dieser Cluster trainiert und anschliessend auf einem separaten Cluster getestet So kann sichergestellt werden dass die Vorhersagen eines Modells eine Allgemeingultigkeit besitzen und nicht auf einen bestimmten Bereich in der Domane beschrankt sind 3 Ausserdem kann durch die Gruppen Kreuzvalidierung vermieden werden dass das Modell in einem Bereich zu optimistisch ist Gruppen Kreuzvalidierung wird besonders beim Einsatz von Kunstlicher Intelligenz in der Materialwissenschaft verwendet 4 Dabei werden die untersuchten Materialien nach ihren chemischen Strukturraumen in Cluster eingeteilt Dies ist besonders wichtig da bestimmte Korrelationen in den Daten in einem Strukturraum sehr prasent sein konnen aber nicht auf andere Raume angewendet werden konnen Wiederholtes zufalliges Subsampling BearbeitenBeim wiederholten zufalligen Subsampling repeated random sub sampling werden wiederholt zufallige Unterstichproben gezogen Ein Beispielalgorithmus welcher Subsampling nutzt ist der RANSAC Algorithmus 5 Holdout Methode BearbeitenDer typische Train Test Split eines Datensatzes in einen Trainingsdatensatz und einen Testdatensatz kann als einfachste Form von Kreuzvalidierung angesehen werden 6 Durch Anwenden der Holdout Methode kann Uberanpassung erkannt werden Bei der Holdout Methode ist zu beachten dass sowohl der Trainings als auch der Testdatensatz dieselbe Verteilung reprasentieren Pseudoreplikation aufgrund hoher Autokorrelation der Daten ist beim Test Train Split zu berucksichtigen Anwendung BearbeitenTrainiert man ein Modell auf einem Trainingsdatensatz D displaystyle mathcal D nbsp und bestimmt den empirischen Mittelwert der Verlustfunktion L vgl empirische Risikominimierung auf Test Daten x i y i displaystyle x i y i nbsp so wird der bedingte Erwartungswert des Testfehlers E x i y i L y x i y i D displaystyle hat E x i y i L hat y x i y i mathcal D nbsp geschatzt Dies ist der auf den Trainingsdatensatz bedingte Testfehler Cross Validation und auch Bootstrapping Verfahren konnen benutzt werden um den erwarteten Testfehler 7 zu schatzen indem die Trainingsdatensatze Und Testdatensatze durch Resampling neu erzeugt werden E D E x i y i L y x i y i D displaystyle hat E mathcal D hat E x i y i L hat y x i y i mathcal D nbsp Beispiel BearbeitenEin Psychologe entwickelt einen neuen Test mit dem er Depressivitat messen will Um zu uberprufen wie gut der Test das zu messende Merkmal Depressivitat misst lasst er in einem ersten Schritt eine grosse Gruppe von Personen bei denen die jeweilige Auspragung des Merkmals bekannt ist vorher durch Experten oder einen anderen Test bestimmt an diesem Test teilnehmen Im nachsten Schritt unterteilt er die grosse Gruppe in zwei zufallig zusammengestellte Untergruppen bzw k Teilmengen siehe weiter oben nennen wir sie Untergruppe A und Untergruppe B Der Psychologe benutzt nun die Daten der Untergruppe A um mit ihnen eine Vorhersagegleichung fur das Merkmal das der Test messen soll zu erstellen D h er bildet eine Regel nach der aus den Testdaten einer Person Ruckschlusse auf die Auspragung des gesuchten Merkmals bei ihr gezogen werden konnen Diese Vorhersagegleichung wendet er nun auf alle Mitglieder der Untergruppe B an und versucht aus den Testdaten von Untergruppe B mithilfe der an Untergruppe A entwickelten Vorhersagegleichung auf deren jeweilige Auspragung des Merkmals zu schliessen Anschliessend wird der Prozess umgekehrt also B genutzt um A vorherzusagen Die Kreuzvalidierung besteht darin den Durchschnitt der Genauigkeit beider Vorhersagen zu bilden Dieses Verfahren kann mit beliebig vielen Untergruppen k durchgefuhrt werden wobei k 1 Gruppen genutzt werden um die verbleibende Test Gruppe vorherzusagen Weblinks Bearbeiten nbsp Commons Kreuzvalidierungsverfahren Sammlung von Bildern Videos und AudiodateienEinzelnachweise Bearbeiten Ian H Witten Eibe Frank und Mark A Hall Data Mining Practical Machine Learning Tools and Techniques 3 Auflage Morgan Kaufmann Burlington MA 2011 ISBN 978 0 12 374856 0 waikato ac nz Bryce Meredig Erin Antono Carena Church Maxwell Hutchinson Julia Ling Can machine learning identify the next high temperature superconductor Examining extrapolation performance for materials discovery In Molecular Systems Design amp Engineering Band 3 Nr 5 2018 ISSN 2058 9689 S 819 825 doi 10 1039 C8ME00012C rsc org abgerufen am 15 Juni 2022 Sterling G Baird Marianne Liu Hasan M Sayeed Taylor D Sparks Data Driven Materials Discovery and Synthesis using Machine Learning Methods 28 Februar 2022 arxiv 2202 02380v2 Steven K Kauwe Jake Graser Antonio Vazquez Taylor D Sparks Machine Learning Prediction of Heat Capacity for Solid Inorganics In Integrating Materials and Manufacturing Innovation Band 7 Nr 2 1 Juni 2018 ISSN 2193 9772 S 43 51 doi 10 1007 s40192 018 0108 9 Cantzler H Random sample consensus ransac Institute for Perception Action and Behaviour Division of Informatics University of Edinburgh 1981 http citeseerx ist psu edu viewdoc download doi 10 1 1 106 3035 amp rep rep1 amp type pdf https www cs cmu edu schneide tut5 node42 html Hastie T Tibshirani R Friedman J Friedman J H 2009 The Elements of Statistical Learning Data Mining Inference and Prediction Second Edition Niederlande Springer New York Seite 254 ff Abgerufen von https de wikipedia org w index php title Kreuzvalidierungsverfahren amp oldid 238630052