www.wikidata.de-de.nina.az
Ensemblemethoden werden in der Statistik und fur Machine Learning eingesetzt 1 Sie nutzen eine endliche Menge von verschiedenen Lernalgorithmen um bessere Ergebnisse zu erhalten als mit einem einzelnen Lernalgorithmus Die Berechnung der Ergebnisse dieser Menge von Algorithmen dauert zwar langer als die Auswertung eines einzelnen Algorithmus allerdings kann bereits mit einer viel geringeren Rechentiefe ein in etwa gleich gutes Ergebnis erreicht werden Ein wichtiges Einsatzgebiet von Ensemble Learning sind Entscheidungsbaume Ein grosser Entscheidungsbaum neigt zu hohen Fehlerraten und einer hohen Varianz da von der Wurzel zu den Blattern viele Entscheidungsknoten liegen die alle unter Unsicherheit durchlaufen werden Bagging wurde hier etwa viele kleine Entscheidungsbaume berechnen und den Durchschnitt ihrer Ergebnisse verwenden wodurch die Varianz und damit auch die Fehlerrate deutlich sinkt Inhaltsverzeichnis 1 Optimum Bayes Klassifikator 2 Arten von Ensembles 2 1 Bagging 2 2 Boosting 2 3 Voting 2 4 Stacking 3 EinzelnachweiseOptimum Bayes Klassifikator Bearbeiten Hauptartikel Bayes Klassifikator Der Bayes Klassifikator weist eine Klasse y displaystyle hat y nbsp nach folgender Formel zu y a r g m a x c j C h i H P c j h i P T h i P h i displaystyle hat y mathrm argmax c j in C sum h i in H P c j h i P T h i P h i nbsp wobei C displaystyle C nbsp die Menge der moglichen Klassen ist H displaystyle H nbsp der Hypothesenraum P displaystyle P nbsp eine Wahrscheinlichkeit und T displaystyle T nbsp die Trainingsdaten Es kann sogar gezeigt werden dass kein anderer Klassifikator also auch kein anderes Ensemble im Erwartungswert diese Methode ubertreffen kann Leider lasst sich dieses Verfahren nicht praktisch einsetzen da a r g m a x displaystyle argmax nbsp uber alle Hypothesen im Hypothesenraum iteriert und dieser Raum in den allermeisten Fallen viel zu gross zum Abzahlen ist Arten von Ensembles BearbeitenBagging Bearbeiten Bagging kombiniert mehrere Vorhersagen aus Regressions oder Klassifikationsmodellen wobei die einzelnen Vorhersagen gleich gewichtet und am Ende aggregiert wird um den Vorhersagewert zu bestimmen 2 Zwei haufig verwendete Aggregierung sind der Mittelwert oder der Median Diese Methode wird dann Bootstrap robust aggregation kurz Bragging genannt Bagging mithilfe des Mittelwertes findet zum Beispiel bei Random Forests Anwendung Boosting Bearbeiten Boosting engl Verstarken fusioniert viele schwache Klassifikatoren zu einem starken Klassifikator Dieses allgemeine Verfahren hat sehr viele verschiedene Implementierungen die bekannteste ist AdaBoost oder XGBoost gradient boosted trees Voting Bearbeiten Beim Voting wird das im Ensemble am haufigsten vorhergesagte Ergebnis als Ergebnis des Ensembles verwendet Stacking Bearbeiten Beim Stacking sind die Ausgaben der einzelnen Modelle eines Ensembles die Eingaben fur ein weiteres Machine Learning Modell Dieses Modell ist darauf trainiert aus den neuen Eingaben auf das Resultat zu schliessen Einzelnachweise Bearbeiten Murphy Machine Learning A Probabilistic Perspective Hrsg MIT Press 2012 Leo Breiman Bagging predictors In Machine Learning Band 24 Nr 2 1 August 1996 ISSN 0885 6125 S 123 140 doi 10 1007 BF00058655 springer com abgerufen am 15 Marz 2016 Abgerufen von https de wikipedia org w index php title Ensemble learning amp oldid 234175204