www.wikidata.de-de.nina.az
Eine Markow Kette englisch Markov chain auch Markow Prozess nach Andrei Andrejewitsch Markow andere Schreibweisen Markov Kette Markoff Kette Markof Kette ist ein stochastischer Prozess Ziel bei der Anwendung von Markow Ketten ist es Wahrscheinlichkeiten fur das Eintreten zukunftiger Ereignisse anzugeben Eine Markow Kette ist daruber definiert dass durch Kenntnis einer nur begrenzten Vorgeschichte ebenso gute Prognosen uber die zukunftige Entwicklung moglich sind wie bei Kenntnis der gesamten Vorgeschichte des Prozesses Markow Kette mit drei Zustanden und unvollstandigen VerbindungenMan unterscheidet Markow Ketten unterschiedlicher Ordnung Im Falle einer Markow Kette erster Ordnung heisst das Der zukunftige Zustand des Prozesses ist nur durch den aktuellen Zustand bedingt und wird nicht durch vergangene Zustande beeinflusst Die mathematische Formulierung im Falle einer endlichen Zustandsmenge benotigt lediglich den Begriff der diskreten Verteilung sowie der bedingten Wahrscheinlichkeit wahrend im zeitstetigen Falle die Konzepte der Filtration sowie der bedingten Erwartung benotigt werden Die Begriffe Markow Kette und Markow Prozess werden im Allgemeinen synonym verwendet Zum Teil sind aber zur Abgrenzung mit Markow Ketten Prozesse in diskreter Zeit diskreter Zustandsraum gemeint und mit Markow Prozessen Prozesse in stetiger Zeit stetiger Zustandsraum Inhaltsverzeichnis 1 Einfuhrende Beispiele 1 1 Diskrete endliche Markow Kette 1 2 Diskrete unendliche Markow Kette 2 Diskrete Zeit und hochstens abzahlbar unendliche Zustandsmenge 2 1 Definition 2 1 1 Markow Kette n ter Ordnung 2 2 Grundlegende Eigenschaften 2 3 Beispiele 2 3 1 Endlicher Zustandsraum 2 3 2 Abzahlbar unendlicher Zustandsraum 2 3 3 Klassische Beispiele 2 4 Attribute 2 4 1 Irreduzibilitat 2 4 2 Periodizitat 2 4 3 Rekurrenz und Transienz 2 4 4 Absorbierende Zustande 2 4 5 Stationare Verteilungen 2 4 6 Reversibilitat 2 5 Modellierung 2 5 1 Arrival First AF 2 5 2 Departure First DF 2 6 Simulation 3 Stetige Zeit und diskreter Zustandsraum 4 Diskrete Zeit und allgemeiner Zustandsraum 5 Allgemeine Formulierung 5 1 Definition 6 Anwendungen 7 Siehe auch 8 Literatur 9 WeblinksEinfuhrende Beispiele Bearbeiten nbsp Numerisches Beispiel einer einfachen Markow Kette mit den zwei Zustanden E und A Jede Zahl steht fur die Wahrscheinlichkeit dass der Markov Prozess von einem Zustand in einen anderen wechselt wobei die Richtung durch den Pfeil angegeben ist Befindet sich der Markov Prozess beispielsweise im Zustand A so ist die Wahrscheinlichkeit dass er in den Zustand E wechselt 0 4 wahrend die Wahrscheinlichkeit dass er im Zustand A bleibt 0 6 betragt Hinweis Als Dezimaltrennzeichen wurde der Punkt vom Bild im Text ubernommen Markow Ketten eignen sich sehr gut um zufallige Zustandsanderungen eines Systems zu modellieren falls man Grund zu der Annahme hat dass die Zustandsanderungen nur uber einen begrenzten Zeitraum hinweg Einfluss aufeinander haben oder sogar gedachtnislos sind Ein Beispiel sind Auslastungen von Bediensystemen mit gedachtnislosen Ankunfts und Bedienzeiten Diskrete endliche Markow Kette Bearbeiten Ein populares Beispiel fur eine zeitdiskrete Markow Kette mit endlichem Zustandsraum ist die zufallige Irrfahrt engl Random Walk auf einem diskreten Kreis modelliert durch den Restklassenring Z n Z displaystyle mathbb Z n mathbb Z nbsp Dies fuhrt zum endlichen Zustandsraum S 0 1 2 n 1 displaystyle S left 0 1 2 dots n 1 right nbsp Hierbei startet man in der Aquivalenzklasse 0 displaystyle 0 nbsp mit der 0 und bewegt sich in jedem Schritt aus dem aktuellen Zustand i displaystyle i nbsp jeweils mit Wahrscheinlichkeit 1 2 displaystyle 1 2 nbsp nach i 1 displaystyle i 1 nbsp oder nach i 1 displaystyle i 1 nbsp also anschaulich einen Schritt nach links oder nach rechts nbsp Eine endliche zufallige Irrfahrt mit zwei absorbierenden Zustanden ganz links und ganz rechts Die Zustande 1 0 und 1 haben jeweils die gleiche Ubergangswahrscheinlichkeit 0 5 zu den Zustanden links und rechts von ihnen Diskrete unendliche Markow Kette Bearbeiten Als Beispiel fur einen abzahlbar unendlichen Zustandsraum wirft man eine Munze immer wieder und notiert bei jedem Wurf wie oft bislang Kopf erschienen ist Die Abfolge der so gebildeten Zahlen bildet eine zeitdiskrete Markow Kette diesmal mit Zustandsraum S 0 1 2 displaystyle S 0 1 2 dots nbsp mit jeweils der Ubergangswahrscheinlichkeit 1 2 displaystyle 1 2 nbsp fur den Ubergang von i displaystyle i nbsp nach i 1 displaystyle i 1 nbsp und fur das Verbleiben in i displaystyle i nbsp Ein weiteres Beispiel fur eine Markow Kette mit unendlichem Zustandsraum ist der Galton Watson Prozess der oftmals zur Modellierung von Populationen genutzt wird Diskrete Zeit und hochstens abzahlbar unendliche Zustandsmenge BearbeitenDefinition Bearbeiten Gegeben sei eine Familie von Zufallsvariablen Y X t t N displaystyle Y X t t in mathbb N nbsp wobei alle X t displaystyle X t nbsp nur Werte aus dem hochstens abzahlbaren Zustandsraum S s 1 s 2 s 3 displaystyle S s 1 s 2 s 3 dots nbsp annehmen Dann heisst Y displaystyle Y nbsp eine diskrete Markow Kette genau dann wenn P X t 1 s j t 1 X t s j t X t 1 s j t 1 X 0 s j 0 P X t 1 s j t 1 X t s j t displaystyle begin aligned amp P X t 1 s j t 1 mid X t s j t X t 1 s j t 1 dots X 0 s j 0 amp P X t 1 s j t 1 mid X t s j t end aligned nbsp gilt Die Ubergangswahrscheinlichkeiten hangen also nur von dem aktuellen Zustand ab und nicht von der gesamten Vergangenheit Dies bezeichnet man als Markow Eigenschaft oder auch als Gedachtnislosigkeit Seien p i j t P X t 1 s j X t s i i j 1 m displaystyle p ij t P X t 1 s j mid X t s i quad i j 1 dots m nbsp die Ubergangswahrscheinlichkeiten Diese lassen sich dann in eine quadratische Ubergangsmatrix zusammenfassen M t p i j t s i s j S displaystyle mathbf M t p ij t s i s j in S nbsp Sind die Ubergangswahrscheinlichkeiten unabhangig vom Zeitpunkt t displaystyle t nbsp gilt also p i j t p i j displaystyle p ij t p ij nbsp fur alle t displaystyle t nbsp so heisst die Markow Kette homogen oder Kette mit stationaren Ubergangswahrscheinlichkeiten Bei Homogenitat einer Kette definiert man p i j n P X n s j X 0 s i displaystyle p ij n P X n s j mid X 0 s i nbsp als die n displaystyle n nbsp Schritt Ubergangswahrscheinlichkeit Markow Kette n ter Ordnung Bearbeiten Gelegentlich werden auch Markow Ketten n displaystyle n nbsp ter Ordnung untersucht Bei diesen hangt der zukunftige Zustand von den n displaystyle n nbsp vorherigen Zustanden ab P X t 1 s j t 1 X t s j t X t 1 s j t 1 X 0 s j 0 P X t 1 s j t 1 X t s j t X t n 1 s j t n 1 displaystyle begin aligned amp P X t 1 s j t 1 mid X t s j t X t 1 s j t 1 dots X 0 s j 0 amp P X t 1 s j t 1 mid X t s j t dots X t n 1 s j t n 1 end aligned nbsp In diesem Sinn sind die oben betrachteten Markow Ketten Ketten erster Ordnung Ketten hoherer Ordnung werden hier aber nicht weiter betrachtet Grundlegende Eigenschaften Bearbeiten Die Verteilung von X 0 displaystyle X 0 nbsp wird manchmal auch als Startverteilung oder Anfangsverteilung bezeichnet Bei Vorgabe einer Startverteilung sind alle weiteren Verteilungen X t displaystyle X t nbsp eindeutig bestimmt Daher hat sich teilweise die verkurzte Notation eingeburgert nur die Startverteilung a displaystyle alpha nbsp und den Zeitschritt von Interesse anzugeben P a X t i P X t i X 0 hat Verteilung a displaystyle P alpha X t i P X t i X 0 text hat Verteilung alpha nbsp dd Startet man in einem eindeutigen Zustand j displaystyle j nbsp so wird meist P j X t i displaystyle P j X t i nbsp geschrieben Bei einem endlichen Zustandsraum lassen sich Markow Ketten mittels der Ubergangsmatrix und von Wahrscheinlichkeitsvektoren beschreiben Wahlt man einen stochastischen Startvektor v 0 displaystyle v 0 nbsp als Zeilenvektor als Startverteilung so ergibt sich die Verteilung zum Zeitpunkt 1 durch v 1 v 0 M displaystyle v 1 v 0 M nbsp Damit folgt induktiv v n v 0 M n displaystyle v n v 0 M n nbsp Dabei ist dann genau der i displaystyle i nbsp te Eintrag von v n displaystyle v n nbsp die Wahrscheinlichkeit zum Zeitpunkt n displaystyle n nbsp im Zustand i displaystyle i nbsp zu sein wenn mit der Startverteilung v 0 displaystyle v 0 nbsp gestartet wurde Gemass der obigen Ausfuhrung lassen sich im Falle der Homogenitat und der Endlichkeit des Zustandsraumes leicht die n displaystyle n nbsp Schritt Ubergangswahrscheinlichkeiten berechnen Diese sind dann genaup i j n M n i j displaystyle p ij n left M n right i j nbsp dd also der Eintrag der in der i displaystyle i nbsp ten Zeile und der j displaystyle j nbsp ten Spalte der n displaystyle n nbsp ten Potenz der Ubergangsmatrix steht Allgemein gilt die Chapman Kolmogorow Gleichung Im Falle eines endlichen Zustandsraumes ist sie genau das komponentenweise Ausschreiben der Matrixmultiplikation Markow Ketten sind diskrete dynamische Systeme Der Zeitraum ist N displaystyle mathbb N nbsp der Index der Zufallsvariable Den Zustandsraum im Sinne des dynamischen Systems bilden dann alle Verteilungen auf dem Zustandsraum im Sinne der Markow Kette Die Operation F displaystyle Phi nbsp ordnet dann der Verteilung im t displaystyle t nbsp ten Zeitschritt die Verteilung im t 1 displaystyle t 1 nbsp ten Zeitschritt zu Im Falle eines endlichen Zustandsraumes der Markow Kette ist dies dann genau die iterierte Anwendung der Ubergangsmatrix wie oben beschrieben Einige Begriffe aus der Theorie der dynamischen Systeme haben ein Pendant in der Theorie der Markow Ketten wie z B kritische Punkte und stationare Verteilungen Homogene Markow Ketten mit einer stationaren Verteilung als Startverteilung sind stark stationare stochastische Prozesse Somit sind zeitdiskrete Markow Ketten mit abzahlbarem Zustandsraum masserhaltende dynamische Systeme wenn sie in ihrer invarianten Verteilung starten Sind sie zusatzlich positiv rekurrent sowie irreduzibel so sind sie sogar ergodische stochastische Prozesse und erlauben die Anwendung von Aussagen der Ergodentheorie wie zum Beispiel des individuellen Ergodensatzes Die oben definierte Ubergangsmatrix ist unendlichdimensional wenn der Zustandsraum abzahlbar unendlich ist Nur im Falle der Endlichkeit des Zustandsraumes handelt es sich um eine Matrix im Sinne der Linearen Algebra Beispiele Bearbeiten Endlicher Zustandsraum Bearbeiten nbsp Ubergangsgraph fur die beschriebene Markow KetteWir versuchen mithilfe einer Markow Kette eine einfache Wettervorhersage zu bilden Dazu kodieren wir 1 die Sonne scheint 2 es ist bewolkt und 3 es regnet Als Zeitschritt wahlen wir einen Tag Aus Erfahrung wissen wir dass wenn heute die Sonne scheint die Wahrscheinlichkeit dass es morgen regnet ungefahr 80 ist und die Wahrscheinlichkeit dass es bewolkt ist ca 20 betragt Ausserdem treffen wir die Annahme dass sich diese Wahrscheinlichkeiten nicht andern die Markow Kette also homogen ist Somit wissen wir nun P X t 1 i X t 1 0 falls i 1 0 2 falls i 2 0 8 falls i 3 displaystyle P X t 1 i X t 1 begin cases 0 amp text falls quad i 1 0 2 amp text falls quad i 2 0 8 amp text falls quad i 3 end cases nbsp Ist es aber bewolkt so regnet es mit Wahrscheinlichkeit 0 5 am folgenden Tag und mit Wahrscheinlichkeit von 0 5 scheint die Sonne Es gilt also P X t 1 i X t 2 0 5 falls i 1 0 falls i 2 0 5 falls i 3 displaystyle P X t 1 i X t 2 begin cases 0 5 amp text falls quad i 1 0 amp text falls quad i 2 0 5 amp text falls quad i 3 end cases nbsp Regnet es heute so scheint danach nur mit Wahrscheinlichkeit von 0 1 die Sonne und mit Wahrscheinlichkeit von 0 9 ist es bewolkt Damit folgt fur die Ubergangswahrscheinlichkeiten P X t 1 i X t 3 0 1 falls i 1 0 9 falls i 2 0 falls i 3 displaystyle P X t 1 i X t 3 begin cases 0 1 amp text falls quad i 1 0 9 amp text falls quad i 2 0 amp text falls quad i 3 end cases nbsp Damit ist die Markow Kette vollstandig beschrieben Anschaulich lassen sich solche Markow Ketten gut durch Ubergangsgraphen darstellen wie oben abgebildet Ordnet man nun die Ubergangswahrscheinlichkeiten zu einer Ubergangsmatrix an so erhalt man M 0 0 2 0 8 0 5 0 0 5 0 1 0 9 0 displaystyle M begin bmatrix 0 amp 0 2 amp 0 8 0 5 amp 0 amp 0 5 0 1 amp 0 9 amp 0 end bmatrix nbsp Wir wollen nun wissen wie sich das Wetter entwickeln wird wenn heute die Sonne scheint Dazu geben wir die Anfangsverteilung X 0 displaystyle X 0 nbsp vor in Form des stochastischen Startvektors v 0 1 0 0 displaystyle v 0 1 0 0 nbsp Wir starten also im Zustand 1 Multiplikation von rechts mit der Ubergangsmatrix liefert v 1 v 0 M 0 0 2 0 8 displaystyle v 1 v 0 M 0 0 2 0 8 nbsp Mit achtzigprozentiger Wahrscheinlichkeit regnet es also Am dritten Tag gilt v 3 v 0 M 3 0 370 0 0 126 0 0 504 0 displaystyle v 3 v 0 M 3 approx 0 3700 0 1260 0 5040 nbsp Somit ist die Regenwahrscheinlichkeit am dritten Tag knapp uber 50 und die Sonnenwahrscheinlichkeit knapp unter 40 Somit lasst sich fur jedes vorgegebene Wetter am Starttag die Regen und Sonnenwahrscheinlichkeit an einem beliebigen Tag angeben Auch Fragestellungen wie Heute scheint die Sonne Wie gross ist die Wahrscheinlichkeit dass es vor drei Tagen geregnet hat lassen sich mit dem Satz von Bayes beantworten Abzahlbar unendlicher Zustandsraum Bearbeiten Definieren wir nun eine Markow Kette auf dem Zustandsraum Z displaystyle mathbb Z nbsp und mit Ubergangswahrscheinlichkeiten P X t 1 i X t j p falls i j 1 q falls i j 1 0 sonst displaystyle P X t 1 i X t j begin cases p amp text falls quad i j 1 q amp text falls quad i j 1 0 amp text sonst end cases nbsp wobei p q 1 displaystyle p q 1 nbsp p q 0 displaystyle p q geq 0 nbsp gelten Dies lasst sich so veranschaulichen Startet man an einem beliebigen Punkt so bewegt man sich entweder mit einer Wahrscheinlichkeit von p displaystyle p nbsp nach rechts sprich begibt sich zur Nachfolgerzahl Mit Wahrscheinlichkeit q displaystyle q nbsp wandert man nach links zur Vorgangerzahl Entsprechend diesem Vorgehen irrt man dann uber die Zahlengerade Daher wird diese Markow Kette auch Irrfahrt auf Z displaystyle mathbb Z nbsp genannt Gelegentlich wird fur solche Markow Ketten auch der Begriff des Random Walk verwendet Starten wir im Zustand 0 so ist mit den obigen Ubergangswahrscheinlichkeiten P 0 X 1 i p falls i 1 q falls i 1 0 sonst displaystyle P 0 X 1 i begin cases p amp text falls quad i 1 q amp text falls quad i 1 0 amp text sonst end cases nbsp Daraus folgen dann P 0 X 2 2 q 2 displaystyle P 0 X 2 2 q 2 nbsp P 0 X 2 0 2 p q displaystyle P 0 X 2 0 2pq nbsp P 0 X 2 2 p 2 displaystyle P 0 X 2 2 p 2 nbsp Hier zeigt sich ein gewisser Zusammenhang zur Binomialverteilung Ausserdem gilt aber auch P 0 X 2 1 P 0 X 2 1 0 displaystyle P 0 X 2 1 P 0 X 2 1 0 nbsp Gewisse Zustande konnen also nur zu bestimmten Zeiten besucht werden diese Eigenschaft wird Periodizitat genannt Ist allgemeiner Z n n N displaystyle Z n n in mathbb N nbsp eine Folge unabhangiger und identisch verteilter Zufallsvariablen mit Werten in Z displaystyle mathbb Z nbsp dann ist durch X t n 1 t Z n displaystyle X t sum n 1 t Z n nbsp eine Markow Kette X t t N displaystyle X t t in mathbb N nbsp mit Ubergangswahrscheinlichkeiten p i j P Z 1 j i displaystyle p ij P Z 1 j i nbsp gegeben Klassische Beispiele Bearbeiten Einige der bekanntesten Markow Ketten sind Die Irrfahrt auf Z D displaystyle mathbb Z D nbsp sowie Verallgemeinerungen auf Graphen Der Galton Watson Prozess welcher die Fortpflanzung einer sich eingeschlechtlich fortpflanzenden Spezies modelliert Das Ehrenfest Modell zur Modellierung der Diffusion von Molekulen durch Membrane Attribute Bearbeiten Markow Ketten konnen gewisse Attribute zukommen welche insbesondere das Langzeitverhalten beeinflussen Dazu gehoren beispielsweise die folgenden Irreduzibilitat Bearbeiten Hauptartikel Irreduzible Markow Kette Irreduzibilitat ist wichtig fur die Konvergenz gegen einen stationaren Zustand Vereinfacht gesagt ist eine Markow Kette irreduzibel wenn fur alle Zustande i displaystyle i nbsp und j displaystyle j nbsp gilt dass die Wahrscheinlichkeit in endlicher Zeit von i displaystyle i nbsp nach j displaystyle j nbsp zu kommen echt positiv ist Gilt dies fur fixierte i displaystyle i nbsp und j displaystyle j nbsp so sagt man auch dass i displaystyle i nbsp und j displaystyle j nbsp miteinander kommunizieren Periodizitat Bearbeiten Hauptartikel Periodische Markow Kette Periodische Markow Ketten erhalten trotz aller Zufalligkeit des Systems gewisse deterministische Strukturen Ist eine Markow Kette periodisch mit Periode d displaystyle d nbsp so kann sie hochstens alle d displaystyle d nbsp Zeitschritte wieder zu ihrem Startpunkt zuruckkehren dies ist aber nicht zwingend Rekurrenz und Transienz Bearbeiten Hauptartikel Rekurrente Markow Kette Die Rekurrenz und die Transienz beschreiben das Langzeitverhalten einer Markow Kette Wird ein Zustand fast sicher unendlich oft besucht so heisst er rekurrent ansonsten transient Sind alle Zustande rekurrent transient so heisst die Markow Kette rekurrent transient Wichtiges Hilfsmittel zur Bestimmung von Rekurrenz ist die Green Funktion Absorbierende Zustande Bearbeiten Hauptartikel Absorbierender Zustand Absorbierende Zustande sind Zustande welche nach dem Betreten nicht wieder verlassen werden konnen Hier interessiert man sich insbesondere fur die Absorptionswahrscheinlichkeit also die Wahrscheinlichkeit einen solchen Zustand zu betreten Stationare Verteilungen Bearbeiten Hauptartikel Stationare Verteilung In der Anwendung sind oftmals besonders stationare Verteilungen interessant Gibt man diese Verteilungen als Startverteilung von X 0 displaystyle X 0 nbsp vor so sind alle darauf folgenden Verteilungen der Zustande X n displaystyle X n nbsp fur beliebiges n displaystyle n nbsp gleich der Startverteilung Interessant ist hier die Frage wann solche Verteilungen existieren und wann eine beliebige Verteilung gegen solch eine stationare Verteilung konvergiert Reversibilitat Bearbeiten Hauptartikel Reversible Markow Kette Bei reversiblen Markow Ketten lasst sich nicht unterscheiden ob sie in der Zeit vorwarts oder ruckwarts laufen sie sind also invariant unter Zeitumkehr Insbesondere folgt aus Reversibilitat die Existenz eines stationaren Zustandes Modellierung Bearbeiten Oft hat man in Anwendungen eine Modellierung vorliegen in welcher die Zustandsanderungen der Markow Kette durch eine Folge von zu zufalligen Zeiten stattfindenden Ereignissen bestimmt wird man denke an obiges Beispiel von Bediensystemen mit zufalligen Ankunfts und Bedienzeiten Hier muss bei der Modellierung entschieden werden wie das gleichzeitige Auftreten von Ereignissen Ankunft vs Erledigung behandelt wird Meist entscheidet man sich dafur kunstlich eine Abfolge der gleichzeitigen Ereignisse einzufuhren Ublicherweise unterscheidet man dabei zwischen den Moglichkeiten Arrival First und Departure First Arrival First AF Bearbeiten Bei dieser Disziplin wird zu Beginn eines Zeitschrittes das Bedienen gestartet Danach treffen neue Forderungen ein und erst am Ende eines Zeitschrittes tritt das Bedien Ende auf nbsp Der Vorteil dieser Disziplin ist dass Forderungsankunfte immer vor einem moglichen Bedien Ende eintreffen und damit die PASTA Eigenschaft Poisson Arrivals See Time Averages gilt Mit Hilfe dieser Eigenschaft lassen sich fur Ankunfte die als Bernoulli Prozess modelliert sind unter anderem sehr einfach fur Bediensysteme wichtige Eigenschaften wie die Verlustwahrscheinlichkeit P V displaystyle P V nbsp berechnen Als Nachteil kann eine Forderung die im Zeitschlitz z t displaystyle z t nbsp eintrifft fruhestens in z t 1 displaystyle z t 1 nbsp fertig bedient werden Dies fuhrt unter Umstanden zu einer hoheren Anzahl von benotigten Warteplatzen im modellierten System Departure First DF Bearbeiten Im Fall von Departure First kommen zu Beginn eines Zeitschrittes Forderungen im System an Darauf folgt der Start von Bedienzeiten und am Ende eines Zeitschrittes das Ende von Bedienzeiten nbsp Bei diesem Ansatz gilt die PASTA Eigenschaft nicht mehr was im Allgemeinen zu komplizierteren Berechnungen als im Falle von Arrival First fuhrt Eine Forderung kann im selben Zeitschritt eintreffen und fertig bedient werden Simulation Bearbeiten Diskrete Markow Ketten mit endlichem Zustandsraum S 1 m displaystyle S 1 dots m nbsp konnen leicht simuliert werden wenn Standardzufallszahlen u t displaystyle u t nbsp verfugbar sind Dazu definiert man r i j 0 falls j 0 l 1 j p i l sonst displaystyle r i j begin cases 0 amp text falls quad j 0 sum l 1 j p il amp text sonst end cases nbsp fur alle i j S displaystyle i j in S nbsp Ist nun X t i displaystyle X t i nbsp dann setze X t 1 j displaystyle X t 1 j nbsp genau dann wenn u t r i j 1 r i j displaystyle u t in r i j 1 r i j nbsp ist Dieses Verfahren ist insbesondere dann effizient wenn wenige p i j displaystyle p ij nbsp ungleich null sind Es entspricht der Inversionsmethode mit der Wahrscheinlichkeitsfunktion p i j p i j displaystyle p i j p ij nbsp Die Moglichkeit auch grosse Markow Ketten zu simulieren macht man sich beim MCMC Verfahren zunutze um Verteilungen zu simulieren die nicht durch klassische Verfahren simuliert werden konnen Stetige Zeit und diskreter Zustandsraum BearbeitenAnalog lasst sich die Markow Kette auch fur kontinuierliche Zeit und diskreten Zustandsraum bilden Das heisst dass sich zu bestimmten Zeitpunkten der Zustand sprunghaft andert Sei X t t 0 displaystyle X t t geq 0 nbsp ein stochastischer Prozess mit kontinuierlicher Zeit und diskretem Zustandsraum Dann gilt bei einem homogenen Markow Prozess n N 0 lt t 1 lt lt t n t gt 0 i 1 i n j S displaystyle forall n in mathbb N 0 lt t 1 lt dotsb lt t n t gt 0 i 1 ldots i n j in S nbsp P X t n t j X t n i n X t 1 i 1 P X t n t j X t n i n P X t j X 0 i n p i n j t displaystyle begin aligned P X t n t j mid X t n i n ldots X t 1 i 1 amp P X t n t j mid X t n i n amp P X t j mid X 0 i n amp p i n j t end aligned nbsp dd Auch hier lassen sich Ubergangsmatrizen bilden P t p i j t displaystyle P t p i j t nbsp fur alle t gt 0 displaystyle t gt 0 nbsp und P 0 I displaystyle P 0 I nbsp Hierbei steht I displaystyle I nbsp wie ublich fur die Einheitsmatrix Es gilt die Chapman Kolmogorow Gleichung und P t t 0 displaystyle P t t geq 0 nbsp ist entsprechend eine Halbgruppe die unter gewissen Voraussetzungen einen infinitesimalen Erzeuger namlich die Q Matrix hat Beispiel hierfur ist der homogene Poisson Prozess der die Q Matrix p i j l 1 j i 1 l 1 j i displaystyle p ij lambda mathbf 1 j i 1 lambda mathbf 1 j i nbsp besitzt oder allgemeiner jeder Geburts und Todesprozess Diskrete Zeit und allgemeiner Zustandsraum BearbeitenMarkow Ketten konnen auch auf allgemeinen messbaren Zustandsraumen definiert werden Ist der Zustandsraum nicht abzahlbar so benotigt man hierzu den stochastischen Kern als Verallgemeinerung zur Ubergangsmatrix Dabei ist eine Markow Kette durch die Startverteilung auf dem Zustandsraum und den stochastischen Kern auch Ubergangskern oder Markowkern schon eindeutig bestimmt Auf dem Gebiet der allgemeinen Markow Ketten gibt es noch viele offene Probleme Gut erforscht sind lediglich Harris Ketten Ein klassisches Beispiel fur einen Markow Prozess in stetiger Zeit und stetigem Zustandsraum ist der Wiener Prozess die mathematische Modellierung der brownschen Bewegung Allgemeine Formulierung BearbeitenInhomogene Markow Prozesse lassen sich mithilfe der elementaren Markow Eigenschaft definieren homogene Markow Prozesse mittels der schwachen Markow Eigenschaft fur Prozesse mit stetiger Zeit und mit Werten in beliebigen Raumen definieren Meist beschrankt man sich hierbei aber aus Grunden der Handhabbarkeit auf polnische Raume Eine Verscharfung der schwachen Markow Eigenschaft ist die starke Markow Eigenschaft Definition Bearbeiten Gegeben sei ein stochastischer Prozess X X t t T displaystyle X X t t in T nbsp fur den gilt Fur die Indexmenge T displaystyle T nbsp gilt T 0 displaystyle T subset 0 infty nbsp sowie 0 T displaystyle 0 in T nbsp und sie ist abgeschlossen bezuglich Addition Jedes X t displaystyle X t nbsp nimmt Werte in E B E displaystyle E mathcal B E nbsp an demnach nimmt X displaystyle X nbsp Werte in E T B E T displaystyle E times T mathcal B E otimes T nbsp an Dabei ist B E displaystyle mathcal B E nbsp die Borelsche s Algebra Der Prozess heisst dann ein Markow Prozess mit Verteilungen P x x E displaystyle P x x in E nbsp auf W A displaystyle Omega mathcal A nbsp wenn gilt Fur alle x E displaystyle x in E nbsp ist X displaystyle X nbsp ein stochastischer Prozess auf W A P x displaystyle Omega mathcal A P x nbsp mit P x X 0 x 1 displaystyle P x X 0 x 1 nbsp Es existiert ein Markow Kern k displaystyle kappa nbsp von E B E displaystyle E mathcal B E nbsp nach E T B E T displaystyle E times T mathcal B E otimes T nbsp mit k x B P x X B displaystyle kappa x B P x X in B nbsp fur alle B B E T displaystyle B in mathcal B E otimes T nbsp Es gilt die schwache Markow Eigenschaft Anwendungen BearbeitenMarkow Ketten werden in unterschiedlichen Bereichen verwendet In den Wirtschaftswissenschaften bei der Warteschlangentheorie Hier unterstellt man eine homogene Markow Kette Dort wird die zu einer Periode wartende Anzahl an Kunden betrachtet Die Wahrscheinlichkeiten fur Ankunft oder Abfertigung eines Kunden sind zeitinvariant unabhangig von der Periode Bioinformatik Markow Ketten werden in der Bioinformatik dazu verwendet Sequenzabschnitte auf bestimmte Eigenschaften zu untersuchen Hierzu zahlt z B das Vorhandensein von CpG Inseln da in diesen die Ubergangswahrscheinlichkeiten zwischen C G und G C erhoht sind In der Gesundheitsokonomie zur probabilistischen Modellierung im Zuge einer Kosten Nutzen Analyse von Gesundheitstechnologien wie zum Beispiel Medikamenten In der Versicherungsmathematik werden diskrete Markow Ketten verwendet zur Einrechnung biometrischer Risiken Invalidisierungswahrscheinlichkeiten Sterbewahrscheinlichkeiten Die Finanzmathematik verwendet auf dem Wiener Prozess basierende Markow Prozesse zur Modellierung von Aktienkurs und Zinsentwicklungen In der Musik zur Komposition algorithmischer Werke zum Beispiel bei Iannis Xenakis Im Qualitatsmanagement zur Bestimmung der Zuverlassigkeit eines Systems und dessen Teilkomponenten In der Physik zur Modellierung des Zerfalls eines Compoundkerns und zur Herleitung von Master Gleichungen in der Markow Naherung Im automatisierten Onlinemarketing zur Generierung von Texten welche von automatischen Spamfiltern nur schwer von durch Menschen verfassten Texten zu unterscheiden sind Ebenso zum Erkennen von Spam Mails mittels eines Markow Spamfilters Bestimmte Brettspiele wie Monopoly und das Leiterspiel lassen sich als Markow Kette auffassen Der PageRank einer Homepage lasst sich als Markow Kette interpretieren Insbesondere ist diese Markow Kette durch die stochastische Google Matrix beschrieben Zur Simulation von Verteilungen die ansonsten nur schwer zuganglich sind mittels der Markow chain Monte Carlo MethodeSiehe auch BearbeitenMarkov Random Field Endlicher Automat Hidden Markov Model Semi Markow ProzessLiteratur BearbeitenPhilipp von Hilgers Wladimir Velminski Hrsg Andrej A Markov Berechenbare Kunste diaphanes Zurich Berlin 2007 ISBN 978 3 935300 69 8 Andrei A Markov An Example of Statistical Investigation of the Text Eugene Onegin Concerning the Connection of Samples in Chains trans Classical Text in Translation In Science in Context 19 4 2006 S 591 600 Pierre Bremaud Markov Chains Springer Verlag 1999 ISBN 0 387 98509 3 Ehrhard Behrends Introduction to Markov Chains Vieweg 2000 ISBN 3 528 06986 4 Olle Haggstrom Finite Markov Chains and Algorithmic Applications Cambridge University Press 2002 Daniel W Stroock An introduction to Markov processes Graduate Texts in Mathematics 230 2 Auflage Springer Heidelberg 2014 ISBN 978 3 642 40522 8 Weblinks Bearbeitenmathematik uni ulm de Skript Markov KettenNormdaten Sachbegriff GND 4037612 6 lobid OGND AKS Abgerufen von https de wikipedia org w index php title Markow Kette amp oldid 233283844