www.wikidata.de-de.nina.az
Entscheidungsbaume englisch decision tree sind geordnete gerichtete Baume die der Darstellung von Entscheidungsregeln dienen Die grafische Darstellung als Baumdiagramm veranschaulicht hierarchisch aufeinanderfolgende Entscheidungen Sie haben eine Bedeutung in zahlreichen Bereichen in denen automatisch klassifiziert wird oder aus Erfahrungswissen formale Regeln hergeleitet oder dargestellt werden Inhaltsverzeichnis 1 Eigenschaften und Einsatz 2 Funktionsweise 2 1 Klassifizieren mit Entscheidungsbaumen 2 1 1 Beispiel Ein Entscheidungsbaum mit geringer Komplexitat 2 2 Induktion von Entscheidungsbaumen 2 3 Algorithmen im Vergleich 2 4 Fehlerrate und Wirksamkeit 2 5 Darstellung in disjunktiver Normalform 3 Vorteile 3 1 Interpretierbarkeit und Verstandlichkeit 4 Nachteile 4 1 Klassifikationsgute in reellwertigen Datenraumen 4 2 Grosse der Entscheidungsbaume und Uberanpassung 4 3 Weiterverarbeitung der Ergebnisse 4 4 Schatzaufgaben und Klassifizierungsprobleme 4 5 Hoher Rechenaufwand 5 Weiterentwicklungen und Erweiterungen 5 1 Entscheidungswalder 5 2 Kombination mit Neuronalen Netzen 6 Praktische Anwendungen 6 1 Anwendungsprogramme 6 2 Beispiel Kundenklassifikation 7 Siehe auch 8 Literatur 9 Weblinks 10 EinzelnachweiseEigenschaften und Einsatz BearbeitenEntscheidungsbaume sind eine Methode zur automatischen Klassifikation von Datenobjekten und damit zur Losung von Entscheidungsproblemen Sie werden ausserdem zur ubersichtlichen Darstellung von formalen Regeln genutzt Ein Entscheidungsbaum besteht immer aus einem Wurzelknoten und beliebig vielen inneren Knoten sowie mindestens zwei Blattern Dabei reprasentiert jeder Knoten eine logische Regel und jedes Blatt eine Antwort auf das Entscheidungsproblem Die Komplexitat und Semantik der Regeln sind von vornherein nicht beschrankt Bei binaren Entscheidungsbaumen kann jeder Regelausdruck nur einen von zwei Werten annehmen Alle Entscheidungsbaume lassen sich in binare Entscheidungsbaume uberfuhren Entscheidungsbaume kommen in zahlreichen Bereichen zum Einsatz z B in der Stochastik als Wahrscheinlichkeitsbaum zur Veranschaulichung bedingter Wahrscheinlichkeiten z B bei absoluten Haufigkeiten im Maschinellen Lernen als Methode zur automatischen Klassifikation von Objekten im Data Mining in der Entscheidungstheorie in der arztlichen Entscheidungsfindung Medizin und in der Notfallmedizin in Business Rule Management Systemen BRMS fur die Definition von Regeln Funktionsweise BearbeitenKlassifizieren mit Entscheidungsbaumen Bearbeiten Um eine Klassifikation eines einzelnen Datenobjektes abzulesen geht man vom Wurzelknoten entlang des Baumes abwarts Bei jedem Knoten wird ein Attribut abgefragt und eine Entscheidung uber die Auswahl des folgenden Knotens getroffen Diese Prozedur wird so lange fortgesetzt bis man ein Blatt erreicht Das Blatt entspricht der Klassifikation Ein Baum enthalt grundsatzlich Regeln zur Beantwortung von nur genau einer Fragestellung Beispiel Ein Entscheidungsbaum mit geringer Komplexitat Bearbeiten nbsp Binarer Entscheidungsbaum zur Vorhersage ob ein Apfelbaum Fruchte tragen wirdDer nebenstehende binare Entscheidungsbaum gibt eine Antwort auf die Frage ob ein Apfelbaum Fruchte tragen wird Als Eingabe benotigt der Baum einen Vektor mit Angaben zu den Attributen eines Apfelbaumes Ein Apfelbaum kann beispielsweise die Attribute alt naturliche Sorte und reichhaltiger Boden besitzen Beginnend mit dem Wurzelknoten werden nun die Entscheidungsregeln des Baumes auf den Eingabevektor angewendet Dabei wird im Beispielbaum an jedem Knoten ein Attribut des Eingabevektors abgefragt am Wurzelknoten etwa das Alter des Apfelbaumes Die Antwort entscheidet uber den Folgeknoten und damit uber die nachste anzuwendende Entscheidungsregel in diesem Falle die Frage zur Sorte und danach die Frage nach der Bodenbeschaffenheit Gelangt man nach einer Folge ausgewerteter Regeln an ein Blatt erhalt man die Antwort auf die ursprungliche Frage Nicht immer mussen alle Ebenen des Entscheidungsbaums durchlaufen werden Fur den oben beschriebenen Apfelbaum ist die Antwort ja also dass der Baum Fruchte tragen wird Diesen Entscheidungsvorgang nennt man formal Klassifikation Induktion von Entscheidungsbaumen Bearbeiten Entscheidungsbaume konnen entweder von Experten manuell aufgeschrieben werden oder mit Techniken des maschinellen Lernens automatisch aus gesammelten Erfahrungswerten induziert werden Hierzu gibt es mehrere konkurrierende Algorithmen Die Induktion der Entscheidungsbaume erfolgt ublicherweise rekursiv im Top down Prinzip Dazu ist es von entscheidender Bedeutung dass ein geeigneter Datensatz mit verlasslichen Erfahrungswerten zum Entscheidungsproblem der sogenannte Trainingsdatensatz vorliegt siehe Holdout Methode Das bedeutet dass zu jedem Objekt des Trainingsdatensatzes die Klassifikation des Zielattributs bekannt sein muss Bei jedem Induktionsschritt wird nun das Attribut gesucht mit welchem sich die Trainingsdaten in diesem Schritt bezuglich des Zielattributs am besten klassifizieren lassen Als Mass fur die Bestimmung der besten Klassifizierung kommen Entropie Masse Gini Index oder andere zur Anwendung Das ermittelte Attribut wird nun zur Aufteilung der Daten verwendet Auf die so entstandenen Teilmengen wird die Prozedur rekursiv angewendet bis in jeder Teilmenge nur noch Objekte mit einer Klassifikation enthalten sind Am Ende ist ein Entscheidungsbaum entstanden der das Erfahrungswissen des Trainingsdatensatzes in formalen Regeln beschreibt Die Baume konnen nun zum automatischen Klassifizieren anderer Datensatze oder zum Interpretieren und Auswerten des entstandenen Regelwerks genutzt werden Algorithmen im Vergleich Bearbeiten Die Algorithmen zur automatischen Induktion von Entscheidungsbaumen setzen alle auf dem gleichen rekursiven Top down Prinzip auf Sie unterscheiden sich nur in ihren Kriterien zur Auswahl der Attribute und Werte der Regeln an den Knoten des Baumes in ihren Kriterien zum Abbruch des Induktionsprozesses und in moglichen Nachbearbeitungsschritten die einen bereits berechneten Ast eines Baumes oder ganze Baume nachtraglich anhand diverser Kriterien optimieren Die Praxis unterscheidet verschiedene Familien von Algorithmen Die alteste Familie sind die CHAIDs Chi square Automatic Interaction Detectors von 1964 1 Sie konnen Baume auf Basis von diskreten Attributen erzeugen Die Familie der CARTs Classification And Regression Trees erweitert die CHAIDS vor allem um die Moglichkeit reellwertige Attribute verarbeiten zu konnen indem ein Teilungs Kriterium englisch split criterion zur Aufteilung reellwertiger Attribute in diskrete Kategorien genutzt wird Zudem werden einige Optimierungsstrategien wie z B das Pruning eingefuhrt Die jungsten Algorithmen sind der ID3 Algorithmus 2 und seine Nachfolger C4 5 und C5 0 3 Sie zahlen formal zur Familie der CARTs werden aber haufig als eigenstandige Gruppe gesehen da sie im Vergleich zu CART zahlreiche neue Optimierungsstrategien einfuhren Fehlerrate und Wirksamkeit Bearbeiten Die Fehlerrate eines Entscheidungsbaumes ist die Anzahl der inkorrekt klassifizierten Datenobjekte im Verhaltnis zu allen Datenobjekten eines Datensatzes Diese Zahl wird regelmassig entweder auf den benutzten Trainingsdaten oder besser auf einer zu den Trainingsdaten disjunkten Menge an moglichst korrekt klassifizierten Datenobjekten ermittelt Je nach Anwendungsbereich kann es von besonderer Bedeutung sein entweder die Anzahl der falsch positiv oder falsch negativ klassifizierten Objekte im Speziellen niedrig zu halten So ist es etwa in der Notfallmedizin wesentlich unschadlicher einen gesunden Patienten zu behandeln als einen kranken Patienten nicht zu behandeln Die Wirksamkeit von Entscheidungsbaumen ist daher immer auch eine kontextabhangige Grosse Darstellung in disjunktiver Normalform Bearbeiten Jede mogliche Klassifikation eines Entscheidungsbaumes lasst sich in Disjunktiver Normalform angeben Hierzu betrachtet man alle Blatter dieser Klassifikation und deren Pfade zum Wurzelknoten Fur jeden dieser Pfade werden alle Bedingungen der Entscheidungsknoten entlang des Pfades miteinander in Konjunktion gesetzt und die dadurch entstehenden Terme in Disjunktion gesetzt Fur das oben abgebildete Beispiel ergibt sich fur die Klassifikation Apfelbaum tragt Fruchte ja folgende Aussage Alter alt Sorte veredelt Alter alt Sorte naturlich Boden reichhaltig BaumTragtFruchte displaystyle text Alter text alt wedge text Sorte text veredelt lor text Alter text alt wedge text Sorte text naturlich wedge text Boden text reichhaltig to text BaumTragtFruchte nbsp Vorteile BearbeitenInterpretierbarkeit und Verstandlichkeit Bearbeiten Ein grosser Vorteil von Entscheidungsbaumen ist dass sie gut erklarbar und nachvollziehbar sind Dies erlaubt dem Benutzer das Ergebnis auszuwerten und Schlusselattribute zu erkennen Das ist vor allem nutzlich wenn grundlegende Eigenschaften der Daten von vornherein nicht bekannt sind Damit ist die Induktion von Entscheidungsbaumen auch eine wichtige Technik des Data Minings Entscheidungsbaume konnen verstandliche Regeln generieren Sie fuhren eine Klassifizierung durch ohne dass viel Berechnung erforderlich ist Sie konnen sowohl kontinuierliche als auch kategoriale Variablen verarbeiten Sie geben einen klaren Hinweis darauf welche Felder fur die Vorhersage oder Klassifizierung am wichtigsten sind 4 Wird jedoch Boosting oder Bagging eingesetzt sind Entscheidungsbaummodelle auch schwer nachvollziehbar Nachteile BearbeitenKlassifikationsgute in reellwertigen Datenraumen Bearbeiten Ein oft benannter Nachteil der Entscheidungsbaume ist die relativ geringe Klassifikationsgute in reellwertigen Datenraumen wenn man die Baume zur automatischen Klassifikation einsetzt So schneiden die Baume aufgrund ihres diskreten Regelwerks bei den meisten Klassifikationsproblemen aus der realen Welt im Vergleich zu anderen Klassifikationstechniken wie beispielsweise Kunstlichen Neuronalen Netzen oder Support Vektor Maschinen etwas schlechter ab 5 6 Das bedeutet dass durch die Baume zwar fur Menschen leicht nachvollziehbare Regeln erzeugt werden konnen diese verstandlichen Regeln aber fur Klassifikationsprobleme der realen Welt statistisch betrachtet oft nicht die bestmogliche Qualitat besitzen 7 8 Grosse der Entscheidungsbaume und Uberanpassung Bearbeiten Ein weiterer Nachteil ist die mogliche Grosse der Entscheidungsbaume wenn sich aus den Trainingsdaten keine einfachen Regeln induzieren lassen Dies kann sich mehrfach negativ auswirken Zum einen verliert ein menschlicher Betrachter schnell den Gesamtuberblick uber den Zusammenhang der vielen Regeln zum anderen fuhren solche grossen Baume aber auch meistens zur Uberanpassung an den Trainingsdatensatz so dass neue Datensatze nur fehlerhaft automatisch klassifiziert werden Es wurden deshalb sogenannte Pruning Methoden entwickelt welche die Entscheidungsbaume auf eine vernunftige Grosse kurzen Beispielsweise kann man die maximale Tiefe der Baume beschranken oder eine Mindestanzahl der Objekte pro Knoten festlegen Weiterverarbeitung der Ergebnisse Bearbeiten Oft bedient man sich der Entscheidungsbaume nur als Zwischenschritt zu einer effizienteren Darstellung des Regelwerkes Um zu den Regeln zu gelangen werden durch verschiedene Verfahren unterschiedliche Entscheidungsbaume generiert Dabei werden haufig auftretende Regeln extrahiert Die Optimierungen werden uberlagert um einen robusten allgemeinen und korrekten Regelsatz zu erhalten Dass die Regeln in keinerlei Beziehungen zueinander stehen und dass widerspruchliche Regeln erzeugt werden konnen wirkt sich nachteilig auf diese Methode aus Schatzaufgaben und Klassifizierungsprobleme Bearbeiten Entscheidungsbaume eignen sich weniger fur Schatzaufgaben bei denen das Ziel darin besteht den Wert eines kontinuierlichen Attributs vorherzusagen Entscheidungsbaume sind bei vielen Klassen und einer relativ geringen Anzahl von Trainingsbeispielen fehleranfallig bei Klassifizierungsproblemen Hoher Rechenaufwand Bearbeiten Das Trainieren eines Entscheidungsbaums kann rechenintensiv sein Das Wachstum eines Entscheidungsbaums ist rechenintensiv An jedem Knoten muss jedes Kandidaten Aufteilungsfeld sortiert werden bevor die beste Aufteilung gefunden werden kann In einigen Algorithmen werden Feldkombinationen verwendet und es muss nach optimalen Kombinationsgewichten gesucht werden Bereinigungsalgorithmen konnen auch teuer sein da viele Kandidaten Teilbaume gebildet und verglichen werden mussen 4 Weiterentwicklungen und Erweiterungen BearbeitenEntscheidungswalder Bearbeiten Eine Methode um die Klassifikationsgute beim Einsatz von Entscheidungsbaumen zu steigern ist der Einsatz von Mengen von Entscheidungsbaumen anstelle von einzelnen Baumen 9 Solche Mengen von Entscheidungsbaumen werden als Entscheidungswalder englisch decision forests vgl Zufallswald bezeichnet 10 Der Gebrauch von Entscheidungswaldern zahlt im maschinellen Lernen zu den sogenannten Ensemble Techniken vgl Ensemble learning Die Idee der Entscheidungswalder ist dass ein einzelner Entscheidungsbaum zwar keine optimale Klassifikation liefern muss die Mehrheitsentscheidung einer Menge von geeigneten Baumen dies aber sehr wohl leisten kann 11 Verbreitete Methoden zur Erzeugung geeigneter Walder sind Boosting 12 Bagging 13 und Arcing Nachteil der Entscheidungswalder ist dass es fur Menschen nicht mehr so einfach ist die in allen Baumen enthaltenen Regeln in ihrer Gesamtheit in einfacher Weise zu interpretieren so wie es bei einzelnen Baumen moglich ware 14 Kombination mit Neuronalen Netzen Bearbeiten Entscheidungsbaume konnen mit neuronalen Netzen kombiniert werden So ist es moglich ineffiziente Aste des Baumes durch neuronale Netze zu ersetzen um eine hohere allein mit den Baumen nicht erreichbare Klassifikationsgute zu erreichen 15 Auch konnen die Vorteile beider Klassifikationsmethoden durch die Abbildung von Teilstrukturen in die jeweils andere Methodik genutzt werden Die Baume brauchen nicht so viele Trainingsdaten zur Induktion wie die neuronalen Netze Dafur konnen sie ziemlich ungenau sein besonders wenn sie klein sind Die Neuronalen Netze hingegen klassifizieren genauer benotigen aber mehr Trainingsdaten Deshalb versucht man die Eigenschaften der Entscheidungsbaume zur Generierung von Teilen neuronaler Netze zu nutzen indem sogenannte TBNN Tree Based Neural Network die Regeln der Entscheidungsbaume in die neuronalen Netze ubersetzen Praktische Anwendungen Bearbeiten nbsp Beispiel Entscheidungsbaum fur das Hochladen von Bildern in WikipediaAnwendungsprogramme Bearbeiten Es gibt etliche Anwendungsprogramme die Entscheidungsbaume implementiert haben so werden sie zum Beispiel in den Statistiksoftwarepaketen GNU R Scikit learn 16 XGBoost SPSS und SAS angeboten Die letzteren beiden Pakete verwenden wie die meisten anderen Data Mining Software Pakete auch den CHAID Algorithmus Beispiel Kundenklassifikation Bearbeiten Eine Bank mochte mit einer Direktmarketing Aktion einen neuen Service verkaufen Um die Erfolgsaussichten zu erhohen sollen mit der Aktion nur Haushalte angesprochen werden die einer Kombination von demografischen Variablen entsprechen die ein entsprechender Entscheidungsbaum als optimal erklart hat Dieser Prozess wird Data Segmentation oder auch Segmentation Modeling genannt Siehe auch BearbeitenRandom Forest Heuristik Kunstliche Intelligenz Top Down Induction of Decision Trees Klassifikationsbaum Methode EntscheidungstabelleLiteratur BearbeitenLeo Breiman Jerome H Friedman Richard A Olshen Charles J Stone Classification and regression trees Wadsworth International Group Belmont CA 1984 ISBN 0 412 04841 8 Tom M Mitchell Machine Learning McGraw Hill Boston USA 1997 ISBN 0 07 115467 1 Jiawei Han Micheline Kamber Data Mining Morgan Kaufmann publishers San Francisco CA 2006 2nd edition ISBN 978 1558609013 Peter Dorsam Entscheidungstheorie anschaulich dargestellt Pd Verlag Heidenau 2007 5 Auflage ISBN 978 3867073059 Gunter Bamberg Adolf G Coenenberg Michael Krapp Betriebswirtschaftliche Entscheidungslehre Verlag Franz Vahlen Munchen 2008 14 Auflage ISBN 978 3 8006 3506 1Weblinks Bearbeiten nbsp Commons Decision diagrams Sammlung von Bildern Videos und AudiodateienEinzelnachweise Bearbeiten J A Sonquist J N Morgan The Detection of Interaction Effects Survey Research Center Institute for Social Research University of Michigan Ann Arbor J R Quinlan Induction of decision trees Machine learning 1 1 81 106 1986 Xindong Wu Vipin Kumar J Ross Quinlan Joydeep Ghosh Qiang Yang Hiroshi Motoda Geoffrey J McLachlan Angus Ng Bing Liu and Philip S Yu et al Top 10 algorithms in data mining Knowledge and Information Systems Volume 14 Number 1 2008 1 37 a b GeeksforGeeks Decision Tree R King C Feng A Sutherland Comparison of classification algorithms on large real world problems Applied Artificial Intelligence 9 3 259 287 Mai Juni 1995 O Gascuel B Bouchon Meunier G Caraux P Gallinari A Guenoche Y Guermeur Twelve numerical symbolic and hybrid supervised classification methods International Journal of Pattern Recognition and Artificial Intelligence 12 5 517 571 1998 A Floter Analyzing biological expression data based on decision tree induction Dissertation Universitat Potsdam 2006 M Murata Q Ma H Isahara Comparison of three machine learning methods for thai part of speech tagging ACM Transaction on Asian Language Information Processing 1 2 145 158 Juni 2002 Y Freund Boosting a weak learning algorithm by majority Information and Computation 121 2 256 285 1995 W Tong Q Xie H Hong H Fang L Shi R Perkins E F Petricoin Using decision forests to classify prostate cancer samples on the basis of seldi tof ms data Assessing chance correlation and prediction confidence Environmental Health Perspectives 112 16 1622 1627 2004 E Bauer R Kohavi An empirical comparison of voting classification algorithms Bagging Boosting and variants Machine Learning 36 1 2 105 139 1998 R E Schapire A short introduction to boosting Japanese Society for Artificial Intelligence 14 5 771 780 1999 L Breiman Bagging predictors Machine Learning 24 2 123 140 1996 R Nock Inducing interpretable voting classifiers without trading accuracy for simplicity Theoretical results approximation algorithms and experiments Journal of Artificial Intelligence Research 17 137 170 August 2002 A K Seewald J Petrak G Widmer Hybrid decision tree learners with alternative leaf classifiers Proceedings of the 14th International FLAIRS conference AAAI Press Menlo Park CA 2000 Decision Trees scikit learn documentation Abgerufen am 24 August 2018 Abgerufen von https de wikipedia org w index php title Entscheidungsbaum amp oldid 228248628