www.wikidata.de-de.nina.az
Dieser Artikel behandelt Ubergangsmatrizen im Sinne der Wahrscheinlichkeitstheorie Fur Ubergangsmatrizen in der linearen Algebra siehe Basiswechselmatrix In der Mathematik besonders der Wahrscheinlichkeitstheorie und Statistik dient eine Ubergangsmatrix auch Prozessmatrix oder stochastische Matrix dazu die Ubergangswahrscheinlichkeiten von diskreten und kontinuierlichen Markow Ketten auszudrucken Dadurch lassen sich kunftige Entwicklungen vorausberechnen In der Theorie der Markow Ketten werden auch unendlichdimensionale Ubergangsmatrizen definiert In diesem Artikel werden jedoch nur Matrizen im Sinne der Linearen Algebra behandelt Eine Ubergangsmatrix ist eine quadratische Matrix deren Zeilen oder Spaltensummen Eins betragen und deren Elemente zwischen Null und Eins liegen 1 Prozessmatrizen dienen ebenfalls zur kunftigen Berechnung dynamischer Entwicklungen Im Gegensatz zu stochastischen Matrizen mussen sie jedoch keine Zeilen bzw Spaltensummen von 1 haben Sie sind jedoch wie die stochastische Matrix quadratisch Inhaltsverzeichnis 1 Weitere Unterscheidung 2 Eigenschaften 2 1 Eigenwerte und Eigenvektoren 2 2 Konvexitat Normen und Abgeschlossenheit 2 3 Beispiel 3 Anwendung zur Charakterisierung diskreter Markow Ketten 4 Beispiele 4 1 Wurfelspiel Kniffel Yahtzee 4 2 Die Ratte im Zimmer 4 3 Die Katze und die Maus 5 Siehe auch 6 Literatur 7 EinzelnachweiseWeitere Unterscheidung BearbeitenEine Ubergangsmatrix heisst zeilenstochastisch wenn alle Eintrage der Matrix zwischen 0 und 1 liegen und die Zeilensummen 1 ergeben Eine Ubergangsmatrix heisst spaltenstochastisch wenn alle Eintrage der Matrix zwischen 0 und 1 liegen und die Spaltensummen 1 ergeben Eine Ubergangsmatrix heisst doppelt stochastisch wenn sie sowohl zeilen als auch spaltenstochastisch ist Aquivalent ist die folgende Definition Eine Matrix heisst zeilen spalten stochastisch wenn sie zeilen spalten weise aus Wahrscheinlichkeitsvektoren besteht Teilweise werden Matrizen mit Eintragen zwischen 0 und 1 deren Zeilensummen bzw Spaltensummen kleiner als 1 sind auch als substochastisch bezeichnet In der Stochastik sind fast ausschliesslich zeilenstochastische Matrizen gebrauchlich Die Unterscheidung ist aber i A wenig gebrauchlich da die Matrizen durch Transponierung ineinander ubergehen Eigenschaften BearbeitenEigenwerte und Eigenvektoren Bearbeiten Den Eigenwerten und Eigenvektoren einer stochastischen Matrix kommt in der Stochastik eine besondere Rolle zu Ist v displaystyle v nbsp Eigenvektor zum Eigenwert l 1 displaystyle lambda 1 nbsp entspricht er einer stationaren Verteilung der Markow Kette vgl unten Generell besitzt jede stochastische Matrix den Eigenwert 1 Ist z B P displaystyle P nbsp zeilenstochastisch so folgt mit der Zeilensummennorm dass P 1 displaystyle Vert P Vert infty 1 nbsp Da der Spektralradius einer Matrix immer hochstens so gross wie ihre Norm ist mussen alle Eigenwerte betragsmassig kleiner oder gleich 1 sein Ist nun 1 displaystyle mathbf 1 nbsp ein Einsvektor d h ein Vektor mit nur 1 als Eintragen so gilt P 1 1 displaystyle P mathbf 1 mathbf 1 nbsp und 1 ist Eigenwert von P displaystyle P nbsp Der Beweis fur spaltenstochastische Matrizen lauft analog aber mit der Spaltensummennorm anstelle der Zeilensummennorm Daraus folgt direkt dass 1 auch immer betragsgrosster Eigenwert ist Des Weiteren ist 1 auch immer ein halbeinfacher Eigenwert Die Dimension des Eigenraumes lasst sich etwas schwerer berechnen Mit dem Satz von Perron Frobenius folgt Ist die stochastische Matrix irreduzibel so ist die Dimension des zum Eigenwert 1 gehorenden Eigenraumes gleich 1 Dies ist insbesondere der Fall wenn die Eintrage einer stochastischen Matrix echt grosser als 0 sind Konvexitat Normen und Abgeschlossenheit Bearbeiten Die Menge der Ubergangsmatrizen ist konvex Sind also P displaystyle P nbsp und Q displaystyle Q nbsp zeilen bzw spaltenstochastische Matrizen so ist l P 1 l Q displaystyle lambda P 1 lambda Q nbsp wieder eine zeilen bzw spaltenstochastische Matrix fur alle l 0 1 displaystyle lambda in 0 1 nbsp Direkt aus der Definition folgt dass die Zeilensummennorm einer zeilenstochastischen Matrix 1 ist genauso wie die Spaltensummennorm einer spaltenstochastischen Matrix Ausserdem sind Ubergangsmatrizen abgeschlossen bezuglich der Matrixmultiplikation Sind A B displaystyle A B nbsp spalten bzw zeilenstochastische Matrizen so ist A B displaystyle A cdot B nbsp ebenfalls eine spalten bzw zeilenstochastische Matrix Beispiel Bearbeiten P 0 5 0 3 0 2 0 2 0 4 0 4 0 3 0 3 0 4 displaystyle P begin pmatrix 0 5 amp 0 3 amp 0 2 0 2 amp 0 4 amp 0 4 0 3 amp 0 3 amp 0 4 end pmatrix nbsp Das charakteristische Polynom einer 3 3 displaystyle 3 times 3 nbsp Ubergangsmatrix lasst sich sehr leicht berechnen Mit der Spur S Spur P displaystyle S operatorname Spur P nbsp und der Determinante D det P displaystyle D det P nbsp gilt x A l l 3 S l 2 S D 1 l D l 1 l 2 S 1 l D displaystyle begin aligned chi A lambda amp lambda 3 S cdot lambda 2 S D 1 cdot lambda D amp lambda 1 cdot lambda 2 S 1 cdot lambda D end aligned nbsp Aus der letzten Zeile ergibt sich dass l 1 displaystyle lambda 1 nbsp stets Eigenwert der Matrix P ist unabhangig von der Wahl der Koeffizienten von P Die anderen beiden Eigenwerte lassen sich dann uber die p q Formel errechnen Anwendung zur Charakterisierung diskreter Markow Ketten BearbeitenIst P displaystyle P nbsp eine zeilenstochastische Matrix so lasst sich damit auf folgende Weise eine zeitinvariante Markow Kette mit endlichem Zustandsraum charakterisieren Die Eintrage p i j displaystyle p ij nbsp der Matrix P displaystyle P nbsp sind genau die Ubergangswahrscheinlichkeiten vom Zustand i displaystyle i nbsp in den Zustand j displaystyle j nbsp p i j P X t 1 j X t i displaystyle p ij P X t 1 j mid X t i nbsp Der Wahrscheinlichkeitsvektor x 0 displaystyle x 0 nbsp beschreibt den Zustand des Systems zum Zeitpunkt 0 und wird manchmal Startvektor genannt Dabei ist der i displaystyle i nbsp te Eintrag von x 0 displaystyle x 0 nbsp die Wahrscheinlichkeit zum Zeitpunkt 0 im Zustand i displaystyle i nbsp Die Wahrscheinlichkeiten zum Zeitpunkt 1 ergeben sich durch Multiplikation der Matrix P displaystyle P nbsp mit dem Vektor x 0 displaystyle x 0 nbsp P x 0 x 1 displaystyle P cdot x 0 x 1 nbsp Allgemein ergeben sich die Wahrscheinlichkeiten zum Zeitpunkt k 1 displaystyle k 1 nbsp ergeben sich durch Multiplikation der Matrix P displaystyle P nbsp mit dem Vektor x k displaystyle x k nbsp P x k x k 1 displaystyle P cdot x k x k 1 nbsp Die Wahrscheinlichkeiten zu einem beliebigen Zeitpunkt k displaystyle k nbsp in Abhangigkeit vom Startzustand x 0 displaystyle x 0 nbsp sind daher P k x 0 x k displaystyle P k cdot x 0 x k nbsp Fur spaltenstochastische Matrizen kann man analog vorgehen bloss dass die Vektormultiplikation von rechts durchgefuhrt wird und der gewohnliche Eigenvektor zum Eigenwert 1 berechnet wird Alternativ kann man auch die Matrix transponieren und das oben skizzierte Vorgehen nutzen Eine besondere Rolle kommt den Linkseigenvektoren der Matrix P displaystyle P nbsp zum Eigenwert l 1 displaystyle lambda 1 nbsp zu denn diese stellen die stationaren Verteilungen der Markow Kette dar Ein anwendungsorientiertes Beispiel fur diese Verwendung von Ubergangsmatrizen ist die Berechnung des PageRank mittels der Google Matrix Jeder Zustand entspricht dort einer Webseite im World Wide Web die Ubergangswahrscheinlichkeiten geben an mit welcher Wahrscheinlichkeit ein Nutzer auf einen Link klickt Die Grenzverteilung ist dann die relative Haufigkeit mit welcher der Nutzer auf eine Webseite stosst und damit ein Mass fur die Wichtigkeit dieser Seite Auch die Rechtseigenvektoren einer Ubergangsmatrix zum Eigenwert 1 spielen eine Rolle bei der Untersuchung von Markow Ketten Bei passender Normierung sind diese genau die Absorptionswahrscheinlichkeiten in einem absorbierenden Zustand Des Weiteren finden sich auch viele Eigenschaften einer Markow Kette in der Ubergangsmatrix wieder Existiert eine Zahl n N displaystyle n in mathbb N nbsp so dass p i j n gt 0 displaystyle p ij n gt 0 nbsp ist dann ist der Zustand j vom Zustand i aus erreichbar Gilt ausserdem auch p j i m gt 0 displaystyle p ji m gt 0 nbsp fur ein m N displaystyle m in mathbb N nbsp so kommunizieren die Zustande i und j Im Fall einer homogenen Markow Kette mit endlichem Zustandsraum ist der Begriff der irreduziblen Markow Kette aquivalent zur Irreduzibilitat der Ubergangsmatrix Ist P n gt 0 displaystyle P n gt 0 nbsp fur ein n N displaystyle n in mathbb N nbsp so ist die Markow Kette irreduzibel und aperiodisch und konvergiert demnach gegen eine Grenzverteilung Dieses Kriterium ist oft leichter zu uberprufen als die Irreduzibilitat und Aperiodizitat separat zu zeigen Die Chapman Kolmogorow Gleichung lasst sich im Falle einer Ubergangsmatrix als komponentenweise ausgeschriebene Matrixmultiplikation interpretieren Beispiele BearbeitenWurfelspiel Kniffel Yahtzee Bearbeiten Beim Wurfelspiel Kniffel Yahtzee werden Punkte fur verschiedene Kategorien erspielt Im Folgenden wird nur eine Spielrunde und die wertvollste Kategorie betrachtet die ebenfalls Kniffel oder Yahtzee genannt wird Bei der Kategorie Kniffel geht es darum mit 5 Wurfeln innerhalb von hochstens 3 Wurfen 5 gleiche Augenzahlen zu erzielen Beim ersten Wurf werden alle 5 Wurfel geworfen Beim zweiten und beim dritten Wurf konnen Wurfel beliebig ausgewahlt werden Diese werden erneut geworfen Um mit moglichst grosser Wahrscheinlichkeit einen Kniffel zu erzielen ist folgende naheliegende Strategie optimal Vor dem zweiten und vor dem dritten Wurf wird jeweils die oder eine der am haufigsten vorkommenden Augenzahlen bestimmt Die Wurfel die diese Augenzahl zeigen werden behalten Alle anderen Wurfel werden erneut geworfen Beispiele Nach dem Wurf 1 1 1 2 2 werden also die drei Wurfel mit der Augenzahl 1 behalten und die zwei Wurfel mit der Augenzahl 2 erneut geworfen Nach dem Wurf 4 4 5 5 6 werden die zwei Wurfel mit der Augenzahl 4 behalten und die drei anderen Wurfel erneut geworfen Alternativ kann auch die Augenzahl 5 ausgewahlt und die drei anderen Wurfel erneut geworfen werden Die moglichen Variationen aus den Augenzahlen der 5 Wurfel lassen sich in folgende 5 Klassen Zustande einteilen wobei A B C D E jeweils verschiedene Augenzahlen darstellen funf verschiedene Augenzahlen ABCDE einmal oder zweimal 2 gleiche Augenzahlen entweder AABCD oder AABBC 3 gleiche Augenzahlen entweder AAABC oder AAABB 4 gleiche Augenzahlen AAAAB 5 gleiche Augenzahlen AAAAA Die Wahrscheinlichkeiten mit dem ersten Wurf eine Variation aus einer dieser 5 Klassen zu erzielen konnen in dieser Reihenfolge als Startvektor dargestellt werden x 0 720 7776 5400 7776 1500 7776 150 7776 6 7776 displaystyle x 0 begin pmatrix tfrac 720 7776 tfrac 5400 7776 tfrac 1500 7776 tfrac 150 7776 tfrac 6 7776 end pmatrix nbsp Sie werden jeweils berechnet als Quotient aus der Anzahl der gunstigen Variationen und der Anzahl 65 7776 aller Variationen Weil jede Augenzahl mehrfach vorkommen kann sind es Variationen mit Wiederholung Die Wahrscheinlichkeiten nach dem Erzielen einer bestimmten gegebenen Variationsklasse eine bestimmte Variationsklasse mit dem zweiten Wurf zu erzielen sind hier die Ubergangswahrscheinlichkeiten p i j displaystyle p i j nbsp Diese konnen als Ubergangsmatrix P 120 1296 0 0 0 0 900 1296 120 216 0 0 0 250 1296 80 216 25 36 0 0 25 1296 15 216 10 36 5 6 0 1 1296 1 216 1 36 1 6 1 1 displaystyle P begin pmatrix tfrac 120 1296 amp 0 amp 0 amp 0 amp 0 tfrac 900 1296 amp tfrac 120 216 amp 0 amp 0 amp 0 tfrac 250 1296 amp tfrac 80 216 amp tfrac 25 36 amp 0 amp 0 tfrac 25 1296 amp tfrac 15 216 amp tfrac 10 36 amp tfrac 5 6 amp 0 tfrac 1 1296 amp tfrac 1 216 amp tfrac 1 36 amp tfrac 1 6 amp tfrac 1 1 end pmatrix nbsp dargestellt werden Zum Beispiel ist p 2 1 900 1296 displaystyle p 2 1 tfrac 900 1296 nbsp die Wahrscheinlichkeit nach dem gegebenem ersten Wurf mit funf verschiedenen Augenzahlen ABCDE im zweiten Wurf einmal oder zweimal 2 gleiche Augenzahlen entweder AABCD oder AABBC zu erzielen Zur Berechnung dieser Wahrscheinlichkeiten sind manchmal Fallunterscheidungen notwendig denn die haufigste Augenzahl nach dem zweiten Wurf kann eine andere sein als die haufigste Augenzahl nach dem ersten Wurf Dafur wird die oben beschriebene optimale Strategie fur das Erzielen eines Kniffels zugrunde gelegt Daraus ergibt sich der Vektor fur die Wahrscheinlichkeiten nach zwei Wurfen indem die Ubergangsmatrix P displaystyle P nbsp mit dem Startvektor x 0 displaystyle x 0 nbsp multipliziert wird x 1 P x 0 displaystyle x 1 P cdot x 0 nbsp Die gleichen Betrachtungen konnen fur die Berechnung der Wahrscheinlichkeiten nach drei Wurfen verwendet werden und man erhalt den Vektor x 2 P 2 x 0 displaystyle x 2 P 2 cdot x 0 nbsp Als Verallgemeinerung erhalt man den Vektor fur die Wahrscheinlichkeiten nach k displaystyle k nbsp Wurfen x k 1 P k 1 x 0 displaystyle x k 1 P k 1 cdot x 0 nbsp Das letzte Element von x k 1 displaystyle x k 1 nbsp ist die Wahrscheinlichkeit fur einen Kniffel nach k displaystyle k nbsp Wurfen Die ausgerechneten Werte fur die ersten 10 Wurfe sind Anzahl der Wurfe Wahrscheinlichkeit fur einen Kniffel Yahtzee 1 0 000772 0 012633 0 046034 0 100585 0 170516 0 249087 0 330508 0 410449 0 4860110 0 55553Nach dem zehnten Wurf ist die Wahrscheinlichkeit einen Kniffel zu erzielen also zum ersten Mal grosser als 1 2 displaystyle tfrac 1 2 nbsp 2 Die Ratte im Zimmer Bearbeiten nbsp Der Adjazenzgraph der stochastischen Matrix aus dem Beispiel und damit auch ein UbergangsgraphPeter besitzt eine Ratte Ist die Ratte nicht im Kafig eingesperrt so befindet sie sich entweder unter dem Schreibtisch Zustand 3 hinter dem Schrank Zustand 2 oder ist im Kafig um zu fressen Zustand 1 Die Ratte wechselt alle 5 Minuten ihren Ort Ist sie gerade im Kafig so bleibt sie mit Wahrscheinlichkeit 0 05 dort mit Wahrscheinlichkeit 0 4 geht sie hinter den Schrank und mit Wahrscheinlichkeit 0 55 unter den Schreibtisch Ist sie hinter dem Schrank so bleibt sie mit Wahrscheinlichkeit 0 7 dort mit Wahrscheinlichkeit 0 2 geht sie unter den Schreibtisch und mit Wahrscheinlichkeit 0 1 geht sie in den Kafig Ist sie unter dem Schreibtisch so bleibt sie mit Wahrscheinlichkeit 0 1 dort mit Wahrscheinlichkeit 0 1 geht sie in den Kafig und mit Wahrscheinlichkeit 0 8 fluchtet sie hinter den Schrank Das Verhalten der Ratte wird durch die zeilenstochastische Matrix P displaystyle P nbsp beschrieben P 0 05 0 1 0 1 0 4 0 7 0 8 0 55 0 2 0 1 displaystyle P begin pmatrix 0 05 amp 0 1 amp 0 1 0 4 amp 0 7 amp 0 8 0 55 amp 0 2 amp 0 1 end pmatrix nbsp Peter lasst nun seine Ratte frei und will wissen mit welcher Wahrscheinlichkeit sich die Ratte nach 20 Minuten im Kafig befindet Der Startzustand des Systems ist x 0 1 0 0 displaystyle x 0 begin pmatrix 1 0 0 end pmatrix nbsp Die Ratte befindet sich mit Wahrscheinlichkeit 1 im Kafig Der Zustand nach 20 Minuten nach 4 Zeitschritten ist dann gerundet x 4 P 4 x 0 0 095 2 0 693 3 0 211 5 displaystyle x 4 P 4 cdot x 0 begin pmatrix 0 0952 0 6933 0 2115 end pmatrix nbsp Die Ratte befindet sich also mit Wahrscheinlichkeit 0 0952 im Kafig Peter fahrt uber das Wochenende in den Urlaub und will danach seine Ratte wieder einfangen Nun stellt sich die Frage wo er am besten suchen soll Da viel Zeit vergangen ist seit die Ratte freigelassen wurde ist die Annahme gerechtfertigt dass sich das System im Gleichgewicht befindet Gesucht ist daher ein Rechtseigenvektor von P displaystyle P nbsp zum Eigenwert 1 Durch Nachrechnen ergibt sich fur den Eigenvektor gerundet x 0 095 2 0 692 6 0 212 1 displaystyle x begin pmatrix 0 0952 0 6926 0 2121 end pmatrix nbsp Peter sollte also zuerst hinter dem Schrank suchen Die Katze und die Maus Bearbeiten Gegeben seien funf nebeneinander liegende Boxen durchnummeriert von 1 bis 5 und in der ersten Box moge sich eine Katze und in der letzten eine Maus befinden Nach einer festen Zeit wechseln die Tiere zufallig in eine Nachbarbox Das makabre Spiel hat ein Ende wenn die Katze in einer Box auf die Maus trifft Wir bezeichnen die moglichen Zustande mit i j displaystyle i j nbsp d h die Katze ist in der Box i displaystyle i nbsp und die Maus in der Box j displaystyle j nbsp Wir sehen sofort dass wenn i displaystyle i nbsp gerade ungerade ist j displaystyle j nbsp ebenfalls gerade ungerade sein muss Sofort ist auch klar dass i j displaystyle i leq j nbsp gelten muss Die Markow Kette die dieses Spiel beschreibt hat also die folgenden funf Zustande 1 3 1 5 2 4 3 5 Spielende 2 2 3 3 oder 4 4 Der Vektor v displaystyle v nbsp gebe an welcher dieser funf Zustande vorliegt Beispielsweise steht v 1 0 0 0 0 displaystyle v begin pmatrix 1 0 0 0 0 end pmatrix nbsp fur den ersten Zustand unserer Auflistung also 1 3 displaystyle 1 3 nbsp und v 0 0 0 0 1 displaystyle v begin pmatrix 0 0 0 0 1 end pmatrix nbsp fur den letzten Zustand also das Spielende egal in welcher Box Die Ubergangsmatrix P displaystyle P nbsp dazu ist nun P 0 0 1 4 0 0 0 0 1 4 0 0 1 2 1 0 1 2 0 0 0 1 4 0 0 1 2 0 1 4 1 2 1 displaystyle P begin pmatrix 0 amp 0 amp tfrac 1 4 amp 0 amp 0 0 amp 0 amp tfrac 1 4 amp 0 amp 0 tfrac 1 2 amp 1 amp 0 amp tfrac 1 2 amp 0 0 amp 0 amp tfrac 1 4 amp 0 amp 0 tfrac 1 2 amp 0 amp tfrac 1 4 amp tfrac 1 2 amp 1 end pmatrix nbsp Wenn wir beispielsweise wie zu Beginn im 2 Zustand v 0 1 0 0 0 displaystyle v begin pmatrix 0 1 0 0 0 end pmatrix nbsp sind dann wechseln wir mit Sicherheit Ubergangswahrscheinlichkeit 1 in den 3 Zustand v 0 0 1 0 0 displaystyle v begin pmatrix 0 0 1 0 0 end pmatrix nbsp also Katze in der zweiten Box und Maus in der vierten Box Daher ist p 3 2 1 displaystyle p 3 2 1 nbsp Von diesem Zustand ausgehend kommen wir nun aber mit Wahrscheinlichkeit 1 4 displaystyle tfrac 1 4 nbsp in einen der anderen vier Zustande daher sind die anderen vier Zeilen in der 3 Spalte gleich 1 4 displaystyle tfrac 1 4 nbsp Mit Ausnahme von p 5 5 1 displaystyle p 5 5 1 nbsp Ubergang von Spielende nach Spielende sind alle Wahrschlichkeiten auf der Hauptdiagonalen gleich 0 weil vor dem Spielende der Zustand nicht derselbe bleiben kann Siehe auch BearbeitenUbergangstabelleLiteratur BearbeitenFranz Josef Fritz Bertram Huppert Wolfgang Willems Stochastische Matrizen Springer Berlin Heidelberg 1979 ISBN 978 3 540 09126 4 doi 10 1007 978 3 642 67131 9 E Book ISBN 978 3 642 67131 9 Hans Otto Georgii Stochastik Einfuhrung in die Wahrscheinlichkeitstheorie und Statistik 4 Auflage de Gruyter Lehrbuch Berlin 2009 ISBN 978 3 11 021526 7 Kap 6 Peter Knabner Wolf Barth Lineare Algebra Grundlagen und Anwendungen Springer Lehrbuch Springer Berlin 2012 ISBN 978 3 642 32185 6 Einzelnachweise Bearbeiten Gerhard Hubner Stochastik 2009 S 162 DataGenetics Yahtzee ProbabilitySpezielle Matrizen in der Statistik Datenmatrix Produktsummenmatrix Pradiktionsmatrix residuenerzeugende Matrix zentrierende Matrix Kovarianzmatrix Korrelationsmatrix Prazisionsmatrix Gewichtsmatrix Restriktionsmatrix Fisher Informationsmatrix Bernoulli Matrix Leslie Matrix Zufallsmatrix Ubergangsmatrix Abgerufen von https de wikipedia org w index php title Ubergangsmatrix amp oldid 239060726