www.wikidata.de-de.nina.az
Die A priori Wahrscheinlichkeit auch Anfangswahrscheinlichkeit 1 Vortest oder Ursprungswahrscheinlichkeit 2 ist in den Naturwissenschaften ein Wahrscheinlichkeitswert der anhand von allgemeinem Vorwissen bzw vernunftig erscheinenden Grundannahmen uber ein System zum Beispiel symmetrische Eigenschaften eines Wurfels als naheliegend vermutet wird Der lateinische Begriff a priori kann in diesem Zusammenhang etwa als augenscheinlich oder auf den ersten Blick am naheliegendsten verstanden werden Es erscheint beispielsweise vernunftig dass ein Wurfel alle sechs Augenzahlen im Schnitt gleich haufig zeigt d h die A priori Wahrscheinlichkeit jede Augenzahl zu wurfeln ist 1 6 Die alteste Methode zur Bestimmung von A priori Wahrscheinlichkeiten stammt von Laplace Sofern kein Grund bekannt ist etwas anderes anzunehmen wird allen elementaren Ereignissen das sind beim Wurfel die moglichen Ergebnisse eines einzelnen Wurfs also die Augenzahlen 1 bis 6 dieselbe Wahrscheinlichkeit zugeordnet Indifferenzprinzip Entsprechend sind bei einem Munzwurf die elementaren Ereignisse Kopf und Zahl a priori gleich wahrscheinlich Solange kein Grund besteht anzunehmen die Munze sei manipuliert weist man beiden Ereignissen dieselbe Wahrscheinlichkeit 1 2 zu Sollte sich jedoch anhand einer langen Versuchsreihe herausstellen dass die Elementarereignisse mit sehr unterschiedlicher Haufigkeit auftreten liegt nahe dass die A priori Annahme nicht zutraf etwa weil das Material der Wurfel bzw die Munze nicht gleichmassig ist die im Nachgang einer solchen Versuchsreihe ermittelte Wahrscheinlichkeit nennt man A posteriori Wahrscheinlichkeit die Wahrscheinlichkeit die sich hinterher herausgestellt hat Die Unterschiede zwischen A priori und A posteriori Wahrscheinlichkeit lassen sich als mathematische Ausdeutung des volkstumlichen Spruchs verstehen Probieren eine A posteriori Wahrscheinlichkeit durch eine Versuchsreihe ermitteln geht uber Studieren eine A priori Wahrscheinlichkeit auf rein theoretischer Grundlage anhand naheliegender Vermutungen festlegen Eine Erweiterung des Laplace Prinzips ist das Prinzip der maximalen Entropie Hier wird davon ausgegangen dass man bereits etwas uber das abzuschatzende System weiss aber noch nicht alles Nun wird argumentiert dass die A priori Wahrscheinlichkeit unter den verbleibenden kompatiblen Wahrscheinlichkeitsverteilungen so gewahlt werden muss dass die Informations Entropie maximal ist Da die Entropie ein Mass fur die Unsicherheit des Wissens darstellt wurde jede andere Wahl implizieren dass man weitere Informationen uber das System hat was per Definition aber nicht gegeben sein kann Falls keinerlei Informationen uber das System bekannt sind reduziert sich dieses Prinzip wieder auf das Indifferenzprinzip Inhaltsverzeichnis 1 A priori Verteilungen 1 1 Nichtinformative und informative A priori Verteilungen 1 2 Eigentliche und uneigentliche A priori Verteilungen 1 3 Konjugierte A priori Verteilungen 2 Siehe auch 3 Literatur 4 EinzelnachweiseA priori Verteilungen BearbeitenFolgende Situation ist gegeben 8 displaystyle theta nbsp ist ein unbekannter Populationsparameter der auf der Basis von mehreren Beobachtungen x displaystyle x nbsp einer Zufallsgrosse X displaystyle X nbsp geschatzt werden soll Gegeben sei eine Verteilung fur den Parameter 8 displaystyle theta nbsp die das Wissen uber den Parameter 8 displaystyle theta nbsp vor der Beobachtung der Stichprobe beschreibt Diese Verteilung wird A priori Verteilung genannt Weiterhin sei die bedingte Verteilung der Stichprobe unter der Bedingung 8 8 0 displaystyle theta theta 0 nbsp gegeben die auch als Likelihood Funktion bekannt ist Aus der A priori Verteilung und der Likelihood Funktion kann mit Hilfe des Satzes von Bayes die A posteriori Verteilung berechnet werden welche grundlegend fur die Berechnung von Punktschatzern siehe Bayes Schatzer und Intervallschatzern in der bayesschen Statistik siehe Glaubwurdigkeitsintervall ist Nichtinformative und informative A priori Verteilungen Bearbeiten Eine nichtinformative A priori Verteilung ist als eine A priori Verteilung definiert die keinen Einfluss auf die A posteriori Verteilung hat Dadurch erhalt man eine A posteriori Verteilung die identisch mit der Likelihood Funktion ist Maximum a posteriori Schatzer und Konfidenzintervalle die mit einer nichtinformativen A priori Verteilung gewonnen wurden sind daher numerisch aquivalent zu Maximum Likelihood Schatzern und frequentistischen Konfidenzintervallen Eine informative A priori Verteilung liegt in allen anderen Fallen vor Der Begriff der nichtinformativen A priori Verteilung sei an einem Beispiel erlautert Die Zufallsgrosse Y sei der mittlere Intelligenzquotient in der Stadt ZZZ Aufgrund der Konstruktion des Intelligenzquotienten ist bekannt dass Y normalverteilt ist mit Standardabweichung 15 und unbekanntem Parameter m displaystyle mu nbsp An einer Stichprobe von N Freiwilligen wird der Intelligenzquotient gemessen In dieser Stichprobe wird ein arithmetisches Mittel von 105 beobachtet Eine nichtinformative A priori Verteilung ist in diesem Fall gegeben durch p 8 c displaystyle p theta propto c nbsp wobei c lt displaystyle c lt infty nbsp eine positive reelle Zahl ist Auf diese Weise erhalt man als A posteriori Verteilung eine Normalverteilung mit Mittelwert 105 und Standardabweichung 15 N displaystyle tfrac 15 sqrt N nbsp Der Maximum a posteriori Schatzer fur den Mittelwert m displaystyle mu nbsp ist dann 105 d h das arithmetische Mittel der Stichprobe und somit identisch zum Maximum Likelihood Schatzer Eigentliche und uneigentliche A priori Verteilungen Bearbeiten An obigem Beispiel kann ein Problem illustriert werden das haufig bei der Verwendung nichtinformativer A priori Verteilungen auftritt p 8 c displaystyle p theta propto c nbsp definiert eine sogenannte uneigentliche A priori Verteilung Uneigentliche A priori Verteilungen sind dadurch gekennzeichnet dass das Integral der A priori Verteilung grosser als 1 ist Daher sind uneigentliche A priori Verteilungen keine Wahrscheinlichkeitsverteilungen In vielen Fallen kann jedoch gezeigt werden dass die A posteriori Verteilung auch bei Verwendung einer uneigentlichen Verteilung definiert ist Dies trifft zu wenn p 8 y d 8 lt displaystyle int p theta y mathrm d theta lt infty nbsp fur alle y displaystyle y nbsp gilt Eine eigentliche A priori Verteilung p 8 displaystyle p theta nbsp ist dadurch definiert dass sie unabhangig von den Daten ist und dass ihr Integral den Wert 1 ergibt Konjugierte A priori Verteilungen Bearbeiten A priori und A posteriori Verteilung sind konjugiert fur eine gegebene Likelihood Funktion wenn sie den gleichen Verteilungstyp besitzen Ein Beispiel hierfur ist das Binomial Beta Modell X displaystyle X nbsp sei eine binomialverteilte Zufallsgrosse mit Erfolgswahrscheinlichkeit p 0 1 displaystyle p in 0 1 nbsp als Parameter In N displaystyle N nbsp Einzelversuchen werden k displaystyle k nbsp Erfolge beobachtet Als A priori Verteilung fur p displaystyle p nbsp wird eine B a b displaystyle mathrm B alpha beta nbsp Verteilung auf 0 1 displaystyle 0 1 nbsp verwendet Unter diesen Voraussetzungen ist die A posteriori Verteilung eine B a k b N k displaystyle mathrm B alpha k beta N k nbsp Verteilung Ein weiteres Beispiel ist das Update eines normalverteilten Priors mit einer gaussformigen Likelihood Funktion Die A posteriori Verteilung ist dann ebenfalls eine Normalverteilung Siehe auch BearbeitenBayesianische ErkenntnistheorieLiteratur BearbeitenJames O Berger Statistical decision theory and Bayesian analysis Springer Series in Statistics Springer Verlag New York Berlin Heidelberg 1985 ISBN 0 387 96098 8 Andrew Gelman et al Bayesian Data Analysis Chapman amp Hall CRC Boca Raton London New York Washington D C 2013 Einzelnachweise Bearbeiten Arthur Pap Analytische Erkenntnistheorie Springer Verlag Wien 1955 S 99 Intuition Statistik und Beweiswurdigung Memento vom 31 Mai 2009 im Internet Archive Abgerufen von https de wikipedia org w index php title A priori Wahrscheinlichkeit amp oldid 226439396