www.wikidata.de-de.nina.az
Die Potenzmethode Vektoriteration oder Von Mises Iteration nach Richard von Mises 1 ist ein numerisches Verfahren zur Berechnung des betragsgrossten Eigenwertes und des dazugehorigen Eigenvektors einer Matrix Der Name kommt daher dass Matrixpotenzen A k x displaystyle A k x gebildet werden wesentlicher Aufwand sind also Matrix Vektor Produkte Deswegen ist das Verfahren insbesondere fur dunnbesetzte Matrizen geeignet Eine direkte Verallgemeinerung zur Berechnung mehrerer betragsgrosster Eigenwerte dunnbesetzter Matrizen ist die Unterraumiteration Die Potenzmethode lasst sich als nicht optimales Krylow Unterraum Verfahren interpretieren welches nur den jeweils letzten berechneten Vektor zur Eigenwertnaherung verwendet Die Potenzmethode ist hinsichtlich der Konvergenzgeschwindigkeit den anderen Krylow Raum Verfahren wie etwa dem Verfahren von Lanczos oder dem Verfahren von Arnoldi unterlegen Dafur schneidet die Potenzmethode hinsichtlich der Stabilitatsanalyse besser ab 2 Inhaltsverzeichnis 1 Algorithmus 1 1 Motivation 1 2 Allgemeiner Algorithmus 2 Beweis der Konvergenz 3 Konvergenzgeschwindigkeit 4 Verwendung 5 Varianten 6 Vergleiche mit anderen Krylowraum Verfahren 7 Literatur 8 EinzelnachweiseAlgorithmus BearbeitenMotivation Bearbeiten Aus der Stochastik abgeleitet gibt es folgenden naiven Ansatz zur Eigenwertberechnung Betrachtet man einen stochastischen Startvektor v 0 displaystyle v 0 nbsp und eine spaltenstochastische Matrix S displaystyle S nbsp dann ist die Wahrscheinlichkeitsverteilung einer Markow Kette zum Zeitpunkt t displaystyle t nbsp genau v t S v t 1 displaystyle v t Sv t 1 nbsp Falls nun die v t displaystyle v t nbsp gegen einen Vektor v displaystyle v nbsp konvergieren so ist S v v displaystyle Sv v nbsp und wir haben eine vom Anfangszustand unabhangige stationare Verteilung und damit auch einen Eigenvektor zum Eigenwert 1 gefunden Formal ist also v lim i S i v 0 displaystyle v lim i rightarrow infty S i v 0 nbsp es wurden Matrixpotenzen gebildet Dieses Verfahren lasst sich nun fur beliebige Matrizen verallgemeinern Allgemeiner Algorithmus Bearbeiten Gegeben sei eine quadratische Matrix A C n n displaystyle A in mathbb C n times n nbsp und ein Startvektor r 0 C n displaystyle r 0 in mathbb C n nbsp mit A r 0 0 displaystyle Ar 0 neq 0 nbsp In jedem Iterationsschritt wird die Matrix A displaystyle A nbsp auf die aktuelle Naherung r k displaystyle r k nbsp angewandt und dann normiert r k 1 A r k A r k displaystyle r k 1 frac Ar k Vert Ar k Vert nbsp oder in geschlossener Form r k 1 A k 1 r 0 A k 1 r 0 displaystyle r k 1 frac A k 1 r 0 Vert A k 1 r 0 Vert nbsp Die Vektoren r k displaystyle r k nbsp konvergieren gegen einen Eigenvektor zum betragsgrossten Eigenwert sofern dieser Eigenwert halbeinfach ist und alle anderen Eigenwerte einen echt kleineren Betrag haben Es existiert also ein Index d displaystyle d nbsp so dass fur die Eigenwerte gilt l 1 l d displaystyle lambda 1 ldots lambda d nbsp und l d gt l d 1 l n displaystyle lambda d gt lambda d 1 geq ldots geq lambda n nbsp Hierbei ist d displaystyle d nbsp die geometrische und algebraische Vielfachheit des Eigenwerts l 1 displaystyle lambda 1 nbsp Der zum Vektor r k displaystyle r k nbsp gehorende approximierte Eigenwert kann auf zwei Arten berechnet werden Bildet man die Skalare 8 k r k A r k r k r k r k A r k r k 2 2 displaystyle theta k frac langle r k Ar k rangle langle r k r k rangle frac langle r k Ar k rangle Vert r k Vert 2 2 nbsp den sogenannten Rayleigh Quotienten so konvergiert 8 k displaystyle theta k nbsp gegen l 1 displaystyle lambda 1 nbsp Dies folgt direkt aus der Konvergenz von r k displaystyle r k nbsp gegen einen Eigenvektor Ist man nicht am Vorzeichen des Eigenwertes interessiert so bietet sich ein einfacher Ansatz an Da r k displaystyle r k nbsp gegen einen Eigenvektor konvergiert und in jedem Schritt auf 1 normiert wird konvergiert A r k displaystyle Vert Ar k Vert nbsp gegen l 1 displaystyle lambda 1 nbsp unabhangig von der verwendeten Norm Ist A V J V 1 displaystyle A VJV 1 nbsp die Darstellung der quadratischen Matrix in der jordanschen Normalform dann ergibt sich daraus A k V J V 1 k V J k V 1 displaystyle A k VJV 1 k VJ k V 1 nbsp also A k V V J k displaystyle A k V VJ k nbsp Ist nun x V x C displaystyle x V tilde x in mathbb C nbsp ein zufalliger Vektor dann gilt A k x A k V x V J k x i 1 n v i j i k x i displaystyle A k x A k V tilde x VJ k tilde x sum i 1 n v i j i k tilde x i nbsp Ausklammern eines konstanten Faktors ergibt A k x j 1 k i 1 n v i j i j 1 k x i displaystyle A k x j 1 k sum i 1 n v i left frac j i j 1 right k tilde x i nbsp Wenn j 1 gt j i displaystyle j 1 gt j i nbsp dann gilt lim i j i j 1 k 0 displaystyle lim i to infty left frac j i j 1 right k 0 nbsp fur jedes j gt 1 displaystyle j gt 1 nbsp und fur grosse k displaystyle k nbsp ist A k x displaystyle A k x nbsp fast parallel zu v 1 displaystyle v 1 nbsp wenn x 1 0 displaystyle tilde x 1 neq 0 nbsp Das ist die Idee der Potenzmethode 3 x k A x k A x k A k x 0 A k x 0 displaystyle x k frac Ax k Vert Ax k Vert frac A k x 0 Vert A k x 0 Vert nbsp Beweis der Konvergenz BearbeitenWir geben hier einen Beweis unter der Annahme dass die Matrix A displaystyle A nbsp diagonalisierbar ist Der Beweis fur den nichtdiagonalisierbaren Fall lauft analog O B d A seien die Eigenwerte wie oben angeordnet Sei V displaystyle V nbsp die Basiswechselmatrix zur Matrix A displaystyle A nbsp Dann ist A k V D k V 1 displaystyle A k VD k V 1 nbsp wobei D displaystyle D nbsp nach Voraussetzung eine Diagonalmatrix ist welche die Eigenwerte enthalt Sei nun v 1 v n displaystyle v 1 ldots v n nbsp eine Basis aus Eigenvektoren die Spaltenvektoren von V displaystyle V nbsp und r 0 displaystyle r 0 nbsp ein Startvektor mit r 0 i 1 n b i v i mit b 1 v 1 b d v d 0 displaystyle r 0 sum i 1 n beta i v i quad text mit beta 1 v 1 ldots beta d v d neq 0 nbsp Dann ist A k r 0 V D k V 1 r 0 V D k b 1 e 1 b n e n l 1 k V b 1 e 1 b d e d i d 1 n l i l 1 k e i l 1 k b 1 v 1 b d v d i d 1 n l i l 1 k v i 0 fur k displaystyle displaystyle begin aligned A k r 0 amp VD k V 1 r 0 amp VD k beta 1 e 1 ldots beta n e n amp lambda 1 k V left beta 1 e 1 ldots beta d e d sum i d 1 n left frac lambda i lambda 1 right k e i right amp lambda 1 k left beta 1 v 1 ldots beta d v d underbrace sum i d 1 n left frac lambda i lambda 1 right k v i to 0 text fur k to infty right end aligned nbsp Da nach der Voraussetzung gilt dass l i l 1 lt 1 fur i d 1 displaystyle tfrac lambda i lambda 1 lt 1 text fur i geq d 1 nbsp Wegen lim k l 1 k fur l 1 gt 1 0 fur l 1 lt 1 displaystyle lim k to infty lambda 1 k begin cases pm infty amp text fur lambda 1 gt 1 0 amp text fur lambda 1 lt 1 end cases nbsp wird in jedem Schritt die Normierung des Vektors auf 1 durchgefuhrt Die oben angegebene Bedingung an den Startvektor besagt dass er einen Nichtnullanteil in Richtung des Eigenvektors haben muss Dies ist aber meist nicht einschrankend da sich diese Bedingung durch Rundungsfehler in der Praxis oftmals von alleine ergibt Konvergenzgeschwindigkeit Bearbeiten nbsp Konvergenzgeschwindigkeit der Potenzmethode fur die Matrizen A blau und B grun Es ist jeweils r k e displaystyle Vert r k e Vert infty nbsp gegen die Anzahl der Iterationsschritte aufgetragen Unter der haufigen starken Voraussetzung dass der Eigenwert einfach betragsmassig einfach und gut separiert ist konvergieren sowohl die Eigenwertnaherungen als auch die Eigenvektornaherungen linear mit der Konvergenzgeschwindigkeit l 2 l 1 displaystyle lambda 2 lambda 1 nbsp wobei die Eigenwerte dem Betrage nach abfallend sortiert angenommen werden l 1 gt l 2 l n displaystyle lambda 1 gt lambda 2 geq ldots geq lambda n nbsp Diese Voraussetzung ist zum Beispiel nach dem Satz von Perron Frobenius bei Matrizen mit positiven Eintragen erfullt Des Weiteren haben noch Jordanblocke einen Einfluss auf die Konvergenzgeschwindigkeit Betrachte dazu als Beispiel die Matrizen A 1 0 0 0 0 0 8 0 0 0 0 0 8 0 0 0 0 0 8 mit A n 1 0 0 0 0 0 8 n 0 0 0 0 0 8 n 0 0 0 0 0 8 n displaystyle A begin pmatrix 1 amp 0 amp 0 amp 0 0 amp 0 8 amp 0 amp 0 0 amp 0 amp 0 8 amp 0 0 amp 0 amp 0 amp 0 8 end pmatrix quad text mit quad A n begin pmatrix 1 amp 0 amp 0 amp 0 0 amp 0 8 n amp 0 amp 0 0 amp 0 amp 0 8 n amp 0 0 amp 0 amp 0 amp 0 8 n end pmatrix nbsp und B 1 0 0 0 0 0 8 1 0 0 0 0 8 1 0 0 0 0 8 mit B n 1 0 0 0 0 0 8 n n 0 8 n 1 n n 1 2 0 8 n 2 0 0 0 8 n n 0 8 n 1 0 0 0 0 8 n displaystyle B begin pmatrix 1 amp 0 amp 0 amp 0 0 amp 0 8 amp 1 amp 0 0 amp 0 amp 0 8 amp 1 0 amp 0 amp 0 amp 0 8 end pmatrix quad text mit quad B n begin pmatrix 1 amp 0 amp 0 amp 0 0 amp 0 8 n amp n cdot 0 8 n 1 amp tfrac n n 1 2 cdot 0 8 n 2 0 amp 0 amp 0 8 n amp n cdot 0 8 n 1 0 amp 0 amp 0 amp 0 8 n end pmatrix nbsp Beide haben den Eigenvektor e 1 0 0 0 T displaystyle e 1 0 0 0 T nbsp zum betragsgrossten Eigenwert l 1 1 displaystyle lambda 1 1 nbsp und die Separation der Eigenwerte ist l 2 l 1 0 8 displaystyle lambda 2 lambda 1 0 8 nbsp Unter Verwendung der Maximumsnorm x max x 1 x n displaystyle x infty max x 1 ldots x n nbsp und des Startvektors r 0 1 1 1 1 T displaystyle r 0 1 1 1 1 T nbsp konvergiert die Matrix A displaystyle A nbsp mit linearer Konvergenzgeschwindigkeit wahrend die Matrix B displaystyle B nbsp erst nach ca 60 Iterationsschritten ein brauchbares Ergebnis liefert vergleiche Bild Verwendung BearbeitenDa zur Berechnung des Gleichgewichtszustandes grosser Markow Ketten nur der Eigenvektor zum betragsgrossten Eigenwert bestimmt werden muss kann hierfur die Potenzmethode verwendet werden wie bereits im Abschnitt Motivation beschrieben wurde Insbesondere kann hier auf die Normierung in jedem Rechenschritt verzichtet werden da die betrachtete Matrix stochastisch ist und damit die Betragsnorm des stochastischen Vektors erhalt Ein Beispiel dafur ist die Berechnung der PageRanks eines grossen gerichteten Graphen als betragsgrossten Eigenvektor der Google Matrix Insbesondere sind bei der Google Matrix die Eigenwerte gut separiert sodass eine schlechte Konvergenzgeschwindigkeit ausgeschlossen werden kann 4 Varianten BearbeitenHat man einen Eigenwert l displaystyle lambda nbsp ausgerechnet kann man das Verfahren auf die Matrix A l V displaystyle A lambda V nbsp anwenden um ein weiteres Eigenwert Eigenvektor Paar zu bestimmen Hierbei sei V displaystyle V nbsp das Kronecker Produkt des Eigenvektors zum jeweiligen Eigenwert l displaystyle lambda nbsp mit sich selbst Dabei wird vorausgesetzt dass A displaystyle A nbsp unitar diagonalisierbar ist A l V displaystyle A lambda V nbsp erhalt dabei alle Eigenwerte von A displaystyle A nbsp mit Ausnahme von l displaystyle lambda nbsp l 0 displaystyle lambda 0 nbsp Daruber hinaus gibt es die inverse Iteration bei der das Verfahren auf A l I 1 displaystyle A lambda I 1 nbsp angewandt wird indem in jedem Schritt lineare Gleichungssysteme gelost werden Vergleiche mit anderen Krylowraum Verfahren BearbeitenDie Potenzmethode ist den anderen Krylowraum Verfahren sehr ahnlich Es finden sich die typischen Bestandteile der komplexeren Verfahren wieder so etwa die Normierung der konstruierten Basisvektoren die Erweiterung des Krylowraumes und die Berechnung von Elementen von Projektionen im letzten Schritt Literatur BearbeitenHans R Schwarz Norbert Kockler Numerische Mathematik 5 Auflage Teubner Stuttgart 2004 ISBN 3 519 42960 8 Peter Knabner Wolf Barth Lineare Algebra Grundlagen und Anwendungen Springer Lehrbuch Springer Berlin 2012 ISBN 978 3 642 32185 6 Josef Stoer Roland Bulirsch Numerische Mathematik 2 5 Auflage Springer Berlin Heidelberg New York 2005 ISBN 978 3 540 23777 8 Einzelnachweise Bearbeiten R von Mises und H Pollaczek Geiringer Praktische Verfahren der Gleichungsauflosung ZAMM Zeitschrift fur Angewandte Mathematik und Mechanik 9 152 164 1929 J H Wilkinson The Algebraic Eigenvalue Problem Oxford University Press 1965 Cornell University Power iteration The Second Eigenvalue of the Google Matrix Website der Stanford University Abgerufen am 30 August 2013 Abgerufen von https de wikipedia org w index php title Potenzmethode amp oldid 239183344