www.wikidata.de-de.nina.az
Ein Bayes Klassifikator IPA ˈbɛɪ z klasifiˌkaːtoːɐ anhoren benannt nach dem englischen Mathematiker Thomas Bayes ist ein aus dem Satz von Bayes hergeleiteter Klassifikator Er ordnet jedes Objekt der Klasse zu zu der es mit der grossten Wahrscheinlichkeit gehort oder bei der durch die Einordnung die wenigsten Kosten entstehen Formal handelt es sich um eine mathematische Funktion die jedem Punkt eines Merkmalsraums eine Klasse zuordnet Bayes Klassifikatoren sind Beispiele fur Bayessche Netze Inhaltsverzeichnis 1 Definition 2 Naiver Bayes Klassifikator 3 Klassifizierung bei normalverteilten Features 4 Herleitung 5 Anwendungen 6 EinzelnachweiseDefinition BearbeitenEin Bayes Klassifikator c Bayes displaystyle hat c text Bayes nbsp ist eine Funktion die Feature Vektoren aus dem f displaystyle f nbsp dimensionalen reellwertigen Merkmalsraum auf eine Menge von Klassen C displaystyle C nbsp abbildet c Bayes R f C displaystyle hat c text Bayes colon mathbb R f rightarrow C nbsp Der Bayes Klassifikator weist einem Feature Vektor diejenige Klasse zu deren A posteriori Wahrscheinlichkeit beim vorliegenden Feature Vektor maximal ist 1 c Bayes f 1 f n arg max c p C c f 1 f n arg max c p C c p f 1 f n C c p f 1 f n arg max c p C c p f 1 f n C c displaystyle hat c text Bayes f 1 dots f n arg max c p C c f 1 dots f n arg max c frac p C c p f 1 dots f n C c p f 1 dots f n propto arg max c p C c p f 1 dots f n C c nbsp wobei p C c displaystyle p C c nbsp die apriori Auftrittswahrscheinlichkeit der Klasse c displaystyle c nbsp ist und p f 1 f n C c displaystyle p f 1 dots f n C c nbsp die bedingte Auftrittswahrscheinlichkeit der Features f 1 f n displaystyle f 1 dots f n nbsp fur die gegebene Klasse Die apriori Auftrittswahrscheinlichkeit der Klasse c displaystyle c nbsp kann zum Beispiel durch die Auftrittshaufigkeit der Klasse im Trainingsdatensatz geschatzt werden Beide Formen Naiver Bayes Klassifikator und Bayes Klassifikator setzen voraus dass die Wahrscheinlichkeit dass ein Punkt des Merkmalsraums zu einer bestimmten Klasse gehort bekannt ist jede Klasse also durch eine Wahrscheinlichkeitsdichte beschrieben wird In der Realitat sind diese Dichtefunktionen aber nicht bekannt man muss sie abschatzen Dazu vermutet man hinter jeder Klasse einen Typ von Wahrscheinlichkeitsverteilung in der Regel eine Normalverteilung und versucht anhand der vorhandenen Daten deren Parameter abzuschatzen Naiver Bayes Klassifikator Bearbeiten nbsp Beispiel eines Naiven Bayes Klassifikators welcher als Bayessches Netz dargestellt istDer Naive Bayes Klassifikator nimmt in naiver Weise an dass die A posteriori Verteilung aus Wahrscheinlichkeiten aufgebaut ist bei denen bei gegebener Klasse die Features unabhangig voneinander sind 1 c Bayes f 1 f n arg max c p C c f 1 f n arg max c p C c i 1 n p f i C c displaystyle hat c text Bayes f 1 dots f n arg max c p C c f 1 dots f n propto arg max c p C c prod i 1 n p f i C c nbsp Aufgrund seiner schnellen Berechenbarkeit bei guter Erkennungsrate ist auch der naive Bayes Klassifikator sehr beliebt Mittels des naiven Bayes Klassifikators ist es moglich die Zugehorigkeit eines Objektes Klassenattribut zu einer Klasse zu bestimmen Er basiert auf dem Bayesschen Theorem Man konnte einen naiven Bayes Klassifikator auch als sternformiges Bayessches Netz betrachten Die naive Grundannahme ist dabei dass jedes Attribut nur vom Klassenattribut abhangt Obwohl dies in der Realitat selten zutrifft erzielen naive Bayes Klassifikatoren bei praktischen Anwendungen haufig gute Ergebnisse solange die Attribute nicht zu stark korreliert sind Fur den Fall starker Abhangigkeiten zwischen den Attributen ist eine Erweiterung des naiven Bayes Klassifikators um einen Baum zwischen den Attributen sinnvoll Das Ergebnis wird baumerweiterter naiver Bayes Klassifikator genannt Klassifizierung bei normalverteilten Features BearbeitenDie Entscheidungsgrenze enthalt beim Bayes Klassifikator diejenigen Punkte mit gleicher A posteriori Wahrscheinlichkeit je benachbarter Klasse Wird angenommen dass die bedingten Wahrscheinlichkeiten p X C c N m c s c displaystyle p X C c sim mathcal N mu c sigma c nbsp Normalverteilungen sind so ist die aus dem Bayes Klassifikator resultierende Entscheidungsgrenze quadratisch 2 Werden die Normalverteilungen daruber hinaus durch die gleiche Kovarianzmatrix beschrieben ist die dazwischen liegende Entscheidungsgrenze sogar linear In diesen beiden Fallen lasst sich die Diskriminanzfunktion besonders einfach beschreiben was die Klassifikation einfach und effizient berechenbar macht Soll ein Gaussian Bayes Klassifikator eingesetzt werden so sollten die Features zum Beispiel mit der Yeo Johnson Transformation praprozessiert werden um sie moglichst normalverteilt zu machen Herleitung BearbeitenUm den Bayes Klassifikator herzuleiten wird ein Kostenmass benotigt das jeder moglichen Klassifizierung Kosten zuweist Der Bayes Klassifikator ist genau derjenige Klassifikator der die durch alle Klassifizierungen entstehenden Kosten minimiert Das Kostenmass wird gelegentlich auch Risikofunktion genannt man sagt dann der Bayes Klassifikator minimiere das Risiko einer Fehlentscheidung und sei uber das minimum risk Kriterium definiert siehe auch Empirische Risikominimierung Wird ein primitives Kostenmass verwendet das ausschliesslich bei Fehlentscheidungen Kosten verursacht so minimiert der Bayes Klassifikator die Wahrscheinlichkeit einer Fehlentscheidung Typischerweise wird als Kostenmass die folgende 0 1 Verlustfunktion gewahlt L x y 1 d x y 0 if x y 1 if x y displaystyle L x y 1 delta x y begin cases 0 amp text if x y 1 amp text if x neq y end cases nbsp wobei d x y displaystyle delta x y nbsp das Kronecker Delta ist Der erwartete Fehler also die Risikofunktion ist dann der Bayes Fehler EPE E P E E x c c L c c x P C c x displaystyle EPE E x sum c in c L c hat c x P C c x nbsp wobei x ein Feature Vektor E displaystyle E nbsp der Erwartungswert c ist eine Klasse P C c x ist die bedingte Wahrscheinlichkeit einer Klasse c bei gegebenem Feature Vektor x E P E E x c c L c c x P C c x E x c c c c x P C c x E x 1 P C c x x displaystyle EPE E x left sum c in c L c hat c x P C c x right E x left sum c in c c neq hat c x P C c x right E x 1 P C hat c x x nbsp wobei das letzte Gleichheitszeichen aufgrund der Gegenwahrscheinlichkeit gilt Diese Verlustfunktion EPE ist minimal falls P C c x x displaystyle P C hat c x x nbsp maximal ist was durch die Definition des Bayes Klassifikator gewahrleistet wird Man sagt dann der Bayes Klassifikator sei uber das Maximum a posteriori Kriterium definiert Anwendungen BearbeitenEin Beispiel fur eine praktische Anwendung eines Bayes Klassifikator ist der Bayes Spamfilter Der Bayes Klassifikator auch haufig zur Beurteilung anderer Klassifikatoren verwendet Man entwirft kunstlich einige Klassen und deren Wahrscheinlichkeitsdichten erzeugt mit diesem Modell eine zufallige Stichprobe und lasst den anderen Klassifikator die Objekte dieser Stichprobe in Klassen einteilen Das Ergebnis vergleicht man mit der Einordnung die der Bayes Klassifikator vorgenommen hatte Da der Bayes Klassifikator in diesem Fall optimal ist und dann nur der irreduzible Bayes Fehler vorliegt erhalt man eine Abschatzung wie nahe der andere Klassifikator am Optimum liegt Gleichzeitig liefert der Bayes Klassifikator eine untere Schranke fur die Fehlerwahrscheinlichkeit aller anderen Klassifikatoren in diesem Szenario besser als der optimale Bayes Klassifikator konnen diese nicht werden Einzelnachweise Bearbeiten a b 1 9 Naive Bayes Abgerufen am 29 September 2021 englisch Gaussian classifiers https www cs ubc ca murphyk Teaching CS340 Fall07 gaussClassif pdf Abgerufen von https de wikipedia org w index php title Bayes Klassifikator amp oldid 238586511