www.wikidata.de-de.nina.az
Die lineare Algebra auch Vektoralgebra ist ein Teilgebiet der Mathematik das sich mit Vektorraumen und linearen Abbildungen zwischen diesen beschaftigt Dies schliesst insbesondere auch die Betrachtung von linearen Gleichungssystemen und Matrizen mit ein Vektorraume und deren lineare Abbildungen sind ein wichtiges Hilfsmittel in vielen Bereichen der Mathematik Ausserhalb der reinen Mathematik finden sich Anwendungen unter anderem in den Naturwissenschaften in der Informatik und in der Wirtschaftswissenschaft zum Beispiel in der Optimierung Die lineare Algebra entstand aus zwei konkreten Anforderungen heraus einerseits dem Losen von linearen Gleichungssystemen andererseits der rechnerischen Beschreibung geometrischer Objekte der sogenannten analytischen Geometrie daher bezeichnen manche Autoren lineare Algebra als lineare Geometrie Inhaltsverzeichnis 1 Geschichte 2 Lineare Gleichungssysteme 3 Analytische Geometrie 4 Vektorraume und lineare Algebra 5 Wichtige Satze und Ergebnisse 6 Vektoren und Matrizen 7 Endomorphismen und quadratische Matrizen 7 1 Invertierbarkeit 7 2 Determinanten 8 Beispiel 8 1 Berechnung von Potenzen mittels Diagonalisierung 8 2 Eigenwerte 8 3 Diagonalisierbarkeit 9 Literatur 10 Weblinks 11 EinzelnachweiseGeschichte BearbeitenDie Anfange der Algebra und somit auch der Begriff selbst gehen weitestgehend auf den persisch choresmischen Mathematiker Astronomen Geographen und Universalgelehrten Al Chwarizmi zuruck der aufgrund der Islamisierung im Iran seine Werke ins Arabische ubersetzen musste und so auf den Namen al jabr kam Daraus leitet sich der Begriff der Algebra her 1 Wahrend die Entwicklung der Algebra bereits im alten Agypten begann entstand die lineare Algebra als eigenstandiges Teilgebiet erst im 17 Jahrhundert mit der Theorie der Determinante Die Entwicklung dieser Theorie wurde unabhangig voneinander von Gottfried Wilhelm Leibniz und Seki Takakazu gestartet Im Jahr 1750 veroffentlichte dann Gabriel Cramer die nach ihm benannte cramersche Regel Damit war man erstmals im Besitz einer Losungsformel fur viele lineare Gleichungssysteme 2 Die Geschichte der modernen linearen Algebra reicht zuruck bis in die Jahre 1843 und 1844 1843 erdachte William Rowan Hamilton von dem der Begriff Vektor stammt mit den Quaternionen eine Erweiterung der komplexen Zahlen 1844 veroffentlichte Hermann Grassmann sein Buch Die lineale Ausdehnungslehre Arthur Cayley fuhrte dann 1857 mit den 2 2 displaystyle 2 times 2 nbsp Matrizen eine der grundlegendsten algebraischen Ideen ein Ab dem 20 Jahrhundert befasste man sich dann mehrheitlich mit dem Begriff des Vektorraums Insbesondere die Mathematiker August Ferdinand Mobius Constantin Caratheodory und Hermann Weyl leisteten hierfur die Vorarbeit So wurde beispielsweise festgestellt dass lineare Abbildungen zwischen endlichdimensionalen Vektorraumen durch Matrizen beschrieben werden konnen Auf dieser Erkenntnis basierend konnte Stefan Banach als Erster eine axiomatische Definition fur reelle Vektorraume angeben Lineare Gleichungssysteme Bearbeiten Hauptartikel Lineares Gleichungssystem Als lineares Gleichungssystem bezeichnet man eine Zusammenfassung von Gleichungen der Art x 1 x 2 1 displaystyle x 1 x 2 1 nbsp 3 x 1 6 x 2 4 displaystyle 3x 1 6x 2 4 nbsp Derartige Gleichungssysteme erhalt man aus vielen alltaglichen Fragestellungen beispielsweise In welchem Verhaltnis muss man eine 30 ige Losung entspricht x 1 displaystyle x 1 nbsp und eine 60 ige Losung entspricht x 2 displaystyle x 2 nbsp mischen um eine 40 ige Losung zu erhalten Der wesentliche Abstraktionsschritt der linearen Algebra besteht nun darin die linken Seiten als eine Funktion A displaystyle A nbsp der Unbekannten x x 1 x 2 displaystyle x x 1 x 2 nbsp in diesem Fall die Menge der jeweiligen Losungen aufzufassen A x x 1 x 2 3 x 1 6 x 2 displaystyle A x begin pmatrix x 1 x 2 3x 1 6x 2 end pmatrix nbsp Dann wird die Losung des Gleichungssystems zu der Aufgabe Finde ein x displaystyle x nbsp sodass A x 1 4 displaystyle A x begin pmatrix 1 4 end pmatrix nbsp gilt Das Ubereinanderschreiben ist dabei lediglich ein Formalismus um mit mehr als einer Zahl gleichzeitig umgehen zu konnen Statt A displaystyle A nbsp schreibt man auch einfach die relevanten Zahlen in Form eines Rechtecks auf und nennt das Objekt eine Matrix A 1 1 3 6 displaystyle A begin pmatrix 1 amp 1 3 amp 6 end pmatrix nbsp Man stellt fest dass die Funktion A displaystyle A nbsp spezielle Eigenschaften hat sie ist eine lineare Abbildung Ist x displaystyle x nbsp eine Losung fur das Gleichungssystem A x b displaystyle A x b nbsp und y displaystyle y nbsp eine Losung des Gleichungssystems A y c displaystyle A y c nbsp so ist z x y x 1 y 1 x 2 y 2 displaystyle z x y begin pmatrix x 1 y 1 x 2 y 2 end pmatrix nbsp eine Losung von A z b c displaystyle A z b c nbsp Man kann das auch in der Form A x y A x A y displaystyle A x y A x A y nbsp schreiben Ist weiter l displaystyle lambda nbsp irgendeine reelle Zahl so ist A l x l A x displaystyle A lambda x lambda cdot A x nbsp dabei ist l x l x 1 l x 2 displaystyle lambda x begin pmatrix lambda x 1 lambda x 2 end pmatrix nbsp Analytische Geometrie Bearbeiten Hauptartikel Analytische Geometrie Der andere Ursprung der linearen Algebra findet sich in der rechnerischen Beschreibung des 2 und 3 dimensionalen euklidischen Raumes auch Anschauungsraum genannt Mit Hilfe eines Koordinatensystems konnen Punkte im Raum durch Tripel x 1 x 2 x 3 displaystyle x 1 x 2 x 3 nbsp von Zahlen beschrieben werden Der Abbildungstyp der Verschiebung fuhrt zum Begriff des Vektors der Richtung und Betrag der Verschiebung angibt Viele physikalische Grossen beispielsweise Krafte haben stets diesen Richtungsaspekt Da man auch Vektoren durch Zahlentripel a 1 a 2 a 3 displaystyle a 1 a 2 a 3 nbsp beschreiben kann verschwimmt die Trennung zwischen Vektoren und Punkten Einem Punkt P displaystyle P nbsp entspricht sein Ortsvektor der vom Koordinatenursprung nach P displaystyle P nbsp zeigt Viele der in der klassischen Geometrie betrachteten Abbildungstypen beispielsweise Drehungen um Achsen durch den Ursprung oder Spiegelungen an Ebenen durch den Ursprung gehoren zur Klasse der linearen Abbildungen die schon oben erwahnt wurde Vektorraume und lineare Algebra Bearbeiten Hauptartikel Vektorraum Der Begriff des Vektorraumes entsteht als Abstraktion der obigen Beispiele Ein Vektorraum ist eine Menge deren Elemente Vektoren genannt werden zusammen mit einer Addition von Vektoren einer Multiplikation von Vektoren mit Elementen eines fixierten Korpers Skalarmultiplikation aussere Multiplikation genannt Diese Addition und die Skalarmultiplikation mussen noch einige einfache Eigenschaften erfullen die auch fur die Vektoren im Anschauungsraum gelten Man konnte sagen dass Vektorraume gerade so definiert sind dass man von linearen Abbildungen zwischen ihnen sprechen kann In gewisser Weise ist der Begriff des Vektorraums fur die lineare Algebra bereits zu allgemein Jedem Vektorraum ist eine Dimension zugeordnet beispielsweise hat die Ebene Dimension 2 displaystyle 2 nbsp und der Anschauungsraum die Dimension 3 displaystyle 3 nbsp Es gibt aber Vektorraume deren Dimension nicht endlich ist wodurch viele der bekannten Eigenschaften verloren gehen Es hat sich aber als sehr erfolgreich erwiesen unendlichdimensionale Vektorraume mit einer zusatzlichen topologischen Struktur auszustatten die Untersuchung topologischer Vektorraume ist Gegenstand der Funktionalanalysis Der Rest dieses Artikels beschaftigt sich mit dem Fall endlicher Dimensionen Wichtige Satze und Ergebnisse BearbeitenJeder Vektorraum hat mindestens eine Basis Die Basis kann endlich oder unendlich viele Elemente enthalten Falls ein Vektorraum eine Basis aus endlich vielen Elementen hat haben alle Basen dieses Vektorraumes endlich viele Elemente und die Anzahl der Elemente ist fur alle Basen gleich Falls ein Vektorraum eine Basis aus unendlich vielen Elementen hat haben alle Basen dieses Vektorraumes unendlich viele Elemente Deshalb ist es sinnvoll von der Dimension eines Vektorraumes als die Anzahl der Elemente einer Basis sowie von endlich und unendlich dimensionalen Vektorraumen zu sprechen Fur Summen und Durchschnitte von Untervektorraumen gilt die Dimensionsformel und fur die Dimensionen von Faktorraumen eines endlich dimensionalen Vektorraumes V displaystyle V nbsp die Formel dim V U dim V dim U displaystyle dim V U dim V dim U nbsp Jede lineare Abbildung f V W displaystyle f colon V to W nbsp ist durch die Angabe der Bilder einer Basis von V displaystyle V nbsp eindeutig festgelegt Fur lineare Abbildungen gelten der Homomorphiesatz und der Rangsatz Lineare Abbildungen konnen bezuglich fest gewahlter Basen durch Matrizen dargestellt werden Dabei entspricht der Hintereinanderausfuhrung von linearen Abbildungen die Multiplikation ihrer Darstellungsmatrizen Ein lineares Gleichungssystem A x b displaystyle A cdot x b nbsp mit A K m n displaystyle A in mathbb K m times n nbsp b K m displaystyle b in mathbb K m nbsp und x K n displaystyle x in mathbb K n nbsp ist genau dann losbar wenn der Rang der Matrix A displaystyle A nbsp gleich dem Rang der erweiterten Koeffizientenmatrix A b displaystyle begin pmatrix A amp b end pmatrix nbsp ist In diesem Fall ist die Losungsmenge des Systems ein affiner Unterraum von K n displaystyle mathbb K n nbsp der Dimension n r a n g A displaystyle n mathrm rang A nbsp Fur nicht zu grosse Gleichungssysteme konnen die Rangbestimmung und die Berechnung des Losungsraumes mit dem Gaussschen Eliminationsverfahren durchgefuhrt werden Eine lineare Abbildung f V V displaystyle f colon V to V nbsp also ein Endomorphismus eines endlichdimensionalen Vektorraumes V displaystyle V nbsp ist bereits invertierbar wenn sie injektiv oder surjektiv ist Dies ist wiederum genau dann der Fall wenn ihre Determinante ungleich null ist Hieraus folgt dass die Eigenwerte eines Endomorphismus genau die Nullstellen seines charakteristischen Polynoms sind Eine weitere wichtige Aussage uber das charakteristische Polynom ist der Satz von Cayley Hamilton Ein Endomorphismus beziehungsweise eine quadratische Matrix ist genau dann diagonalisierbar wenn das charakteristische Polynom in Linearfaktoren zerfallt und fur jeden Eigenwert dessen algebraische Vielfachheit gleich der geometrischen Vielfachheit also die Nullstellenordnung des Eigenwerts im charakteristischen Polynom gleich der Dimension des zugehorigen Eigenraumes ist Aquivalent dazu ist die Existenz einer Basis des Vektorraumes die aus Eigenvektoren der linearen Abbildung besteht Endomorphismen deren charakteristisches Polynom in Linearfaktoren zerfallt sind immerhin noch trigonalisierbar konnen also durch eine Dreiecksmatrix dargestellt werden Ein etwas tiefer liegendes Ergebnis ist dass die darstellende Matrix dabei sogar in jordansche Normalform gebracht werden kann In Vektorraumen auf denen zusatzlich ein Skalarprodukt displaystyle langle cdot cdot rangle nbsp gegeben ist wird durch x x x displaystyle x sqrt langle x x rangle nbsp eine Norm definiert In diesen Skalarproduktraumen existieren stets Orthonormalbasen die etwa durch das Gram Schmidtsche Orthonormalisierungsverfahren konstruiert werden konnen Nach dem Projektionssatz kann man in diesen Raumen die Bestapproximation aus einem Untervektorraum durch orthogonale Projektion bestimmen Bezuglich der Diagonalisierbarkeit von Endomorphismen in Skalarproduktraumen stellt sich die Frage ob eine Orthonormalbasis aus Eigenvektoren existiert Das zentrale Resultat hierzu ist der Spektralsatz Insbesondere gilt im reellen Fall Zu jeder symmetrischen Matrix A R n n displaystyle A in mathbb mathbb R n times n nbsp gibt es eine orthogonale Matrix Q displaystyle Q nbsp sodass Q T A Q displaystyle Q T AQ nbsp eine Diagonalmatrix ist Wendet man dieses Ergebnis auf quadratische Formen an ergibt sich der Satz von der Hauptachsentransformation Auch Bilinearformen und Sesquilinearformen konnen bei fest gewahlten Basen durch Matrizen dargestellt werden Eine Bilinearform ist genau dann symmetrisch und positiv definit also ein Skalarprodukt wenn ihre darstellende Matrix symmetrisch und positiv definit ist Eine symmetrische Matrix ist genau dann positiv definit wenn alle ihre Eigenwerte positiv sind Allgemein gilt fur symmetrische Bilinearformen und hermitesche Sesquilinearformen der Tragheitssatz von Sylvester der besagt dass die Anzahl der positiven und negativen Eigenwerte der darstellenden Matrizen nicht von der Wahl der Basis abhangen Vektoren und Matrizen Bearbeiten Hauptartikel Vektor und Matrix Mathematik Vektoren endlichdimensionaler Raume konnen durch ihre Komponenten beschrieben werden die je nach Anwendung als Spaltenvektor a 3 7 2 displaystyle mathbf a begin pmatrix 3 7 2 end pmatrix nbsp oder Zeilenvektor b 4 6 3 7 displaystyle mathbf b begin pmatrix 4 amp 6 amp 3 amp 7 end pmatrix nbsp geschrieben werden Haufig werden Zeilenvektoren mit einem hochgestellten T fur transponiert wie b T displaystyle b T nbsp gekennzeichnet In der Literatur werden Vektoren auf unterschiedliche Weise von anderen Grossen unterschieden Es werden Kleinbuchstaben fettgedruckte Kleinbuchstaben unterstrichene Kleinbuchstaben Kleinbuchstaben mit einem Pfeil daruber oder kleine Frakturbuchstaben benutzt Dieser Artikel verwendet Kleinbuchstaben Eine Matrix wird durch ein Raster von Zahlen angegeben Hier ist eine Matrix mit vier Zeilen und drei Spalten M 8 2 9 4 8 2 8 3 7 5 9 1 displaystyle mathbf M begin pmatrix 8 amp 2 amp 9 4 amp 8 amp 2 8 amp 3 amp 7 5 amp 9 amp 1 end pmatrix nbsp Matrizen werden meistens mit Grossbuchstaben bezeichnet Einzelne Elemente eines Vektors werden bei Spaltenvektoren in der Regel durch einen Index angegeben Das zweite Element des oben angegebenen Vektors a displaystyle a nbsp ware dann a 2 7 displaystyle a 2 7 nbsp In Zeilenvektoren wird manchmal eine Hochzahl verwendet wobei man aufpassen muss ob eine Vektorindizierung oder ein Exponent vorliegt Mit dem obigen Beispiel b displaystyle b nbsp hat man etwa b 4 7 displaystyle b 4 7 nbsp Matrixelemente werden durch zwei Indizes angegeben Dabei werden die Elemente durch Kleinbuchstaben dargestellt m 2 3 2 displaystyle m 2 3 2 nbsp ist das Element in der zweiten Zeile der dritten Spalte statt in der dritten Spalte der zweiten Zeile denn so lasst sich m 2 3 displaystyle m 2 3 nbsp leichter lesen Der verallgemeinerte Begriff dieser Gebilde ist Tensor Skalare sind Tensoren nullter Stufe Vektoren Tensoren erster Stufe Matrizen Tensoren zweiter Stufe Ein Tensor n displaystyle n nbsp ter Stufe kann durch einen n displaystyle n nbsp dimensionalen Zahlenwurfel reprasentiert werden Oftmals ist es erforderlich Matrizen mittels elementarer Zeilenumformungen oder Basiswechsel auf eine spezielle Form zu bringen Wichtig sind dabei insbesondere die Dreiecksform die Diagonalform und die jordansche Normalform Endomorphismen und quadratische Matrizen BearbeitenBei der Darstellung einer linearen Abbildung wie unter Matrix beschrieben gibt es den Sonderfall einer linearen Abbildung f displaystyle f nbsp eines endlichdimensionalen Vektorraums auf sich selbst eines sog Endomorphismus Man kann dann dieselbe Basis v displaystyle v nbsp fur Urbild und Bildkoordinaten verwenden und erhalt eine quadratische Matrix A displaystyle A nbsp sodass die Anwendung der linearen Abbildung der Linksmultiplikation mit A displaystyle A nbsp entspricht Um die Abhangigkeit von f displaystyle f nbsp und v displaystyle v nbsp zum Ausdruck zu bringen verwendet man Schreibweisen wie A M v f displaystyle A M v f nbsp oder A v f v displaystyle A v f v nbsp Die zweimalige Hintereinanderausfuhrung dieser Abbildung entspricht dann der Multiplikation mit A 2 displaystyle A 2 nbsp usw und man kann alle polynomialen Ausdrucke mit A displaystyle A nbsp Summen von Vielfachen von Potenzen von A displaystyle A nbsp als lineare Abbildungen des Vektorraums auffassen Invertierbarkeit Bearbeiten Zu einer invertierbaren Matrix A displaystyle A nbsp existiert eine inverse Matrix A 1 displaystyle A 1 nbsp mit A 1 A A A 1 E displaystyle A 1 A AA 1 E nbsp Analog zur Rechenregel x 0 1 displaystyle x 0 1 nbsp bei Zahlen ist die nullte Potenz einer quadratischen Matrix die Diagonalmatrix E displaystyle E nbsp Einheitsmatrix mit Einsen auf der Diagonalen und in der alle restlichen Elemente Null sind sie entspricht der Identitatsabbildung jedes Vektors auf sich selbst Negative Potenzen einer quadratischen Matrix A displaystyle A nbsp lassen sich nur berechnen wenn die durch A displaystyle A nbsp gegebene lineare Abbildung invertierbar ist also keine zwei unterschiedlichen Vektoren u 1 displaystyle u 1 nbsp und u 2 displaystyle u 2 nbsp auf denselben Vektor A u 1 A u 2 displaystyle Au 1 Au 2 nbsp abbildet Anders ausgedruckt muss fur eine invertierbare Matrix A displaystyle A nbsp aus u 1 u 2 0 displaystyle u 1 u 2 neq 0 nbsp stets A u 1 u 2 0 displaystyle A u 1 u 2 neq 0 nbsp folgen das lineare Gleichungssystem A u 0 displaystyle Au 0 nbsp darf also nur die Losung 0 displaystyle 0 nbsp haben Determinanten Bearbeiten Hauptartikel Determinante Eine Determinante ist eine spezielle Funktion die einer quadratischen Matrix eine Zahl zuordnet Diese Zahl gibt Auskunft uber einige Eigenschaften der Matrix Beispielsweise lasst sich an ihr erkennen ob eine Matrix invertierbar ist Eine weitere wichtige Anwendung ist die Berechnung des charakteristischen Polynoms und damit der Eigenwerte der Matrix Es gibt geschlossene Formeln zur Berechnung der Determinanten wie den Laplace schen Entwicklungssatz oder die Leibniz Formel Diese Formeln sind jedoch eher von theoretischem Wert da ihr Aufwand bei grosseren Matrizen stark ansteigt In der Praxis kann man Determinanten am leichtesten berechnen indem man die Matrix mit Hilfe des Gauss Algorithmus in obere oder untere Dreiecksform bringt die Determinante ist dann einfach das Produkt der Hauptdiagonalelemente Beispiel BearbeitenObige Begriffe sollen an einem durch die Fibonacci Folge motivierten Beispiel verdeutlicht werden Berechnung von Potenzen mittels Diagonalisierung Bearbeiten Die Fibonacci Folge f n displaystyle f n nbsp ist rekursiv durch die Gleichungen f 0 0 displaystyle f 0 0 nbsp f 1 1 displaystyle f 1 1 nbsp und f n 1 f n f n 1 displaystyle f n 1 f n f n 1 nbsp fur n 1 displaystyle n geq 1 nbsp definiert was gleichbedeutend ist mit f 1 f 0 1 0 displaystyle f 1 choose f 0 1 choose 0 nbsp und f n 1 f n 1 1 1 0 f n f n 1 fur n 1 displaystyle f n 1 choose f n begin pmatrix 1 amp 1 1 amp 0 end pmatrix cdot f n choose f n 1 quad text fur quad n geq 1 nbsp woraus durch Iteration die nichtrekursive Formel f n 1 f n 1 1 1 0 n 1 0 fur n 0 displaystyle f n 1 choose f n begin pmatrix 1 amp 1 1 amp 0 end pmatrix n cdot 1 choose 0 quad text fur quad n geq 0 nbsp folgt in der die n displaystyle n nbsp te Potenz einer Matrix A displaystyle A nbsp vorkommt Das Verhalten einer solchen Matrix bei Potenzierung ist nicht leicht zu erkennen hingegen wird die n displaystyle n nbsp te Potenz einer Diagonalmatrix einfach durch Potenzierung jedes einzelnen Diagonaleintrags berechnet Wenn es nun eine invertierbare Matrix T displaystyle T nbsp gibt sodass T 1 A T displaystyle T 1 AT nbsp Diagonalform hat lasst sich die Potenzierung von A displaystyle A nbsp auf die Potenzierung einer Diagonalmatrix zuruckfuhren gemass der Gleichung T 1 A T n T 1 A n T displaystyle T 1 AT n T 1 A n T nbsp die linke Seite dieser Gleichung ist dann die n displaystyle n nbsp te Potenz einer Diagonalmatrix Allgemein lasst sich durch Diagonalisierung einer Matrix ihr Verhalten bei Potenzierung aber auch bei anderen Operationen leichter erkennen Fasst man A v f v displaystyle A v f v nbsp als Matrix einer linearen Abbildung auf so ist die Transformationsmatrix T displaystyle T nbsp die Basiswechselmatrix zu einer anderen Basis v displaystyle v nbsp also T v e v displaystyle T v e v nbsp wobei die Identitatsabbildung e displaystyle e nbsp jeden Vektor auf sich selbst abbildet Dann ist namlich T 1 A T v f v displaystyle T 1 AT v f v nbsp Im oben genannten Beispiel lasst sich eine Transformationsmatrix T displaystyle T nbsp finden sodass T 1 A T ϕ 0 0 1 ϕ displaystyle T 1 cdot A cdot T begin pmatrix phi amp 0 0 amp 1 phi end pmatrix nbsp eine Diagonalmatrix ist in der der goldene Schnitt ϕ 1 5 2 displaystyle phi frac 1 sqrt 5 2 nbsp vorkommt Hieraus erhalt man schliesslich die Formel von Binet f n 1 5 1 5 2 n 1 5 2 n displaystyle f n frac 1 sqrt 5 cdot left left frac 1 sqrt 5 2 right n left frac 1 sqrt 5 2 right n right nbsp Eigenwerte Bearbeiten Wie kommt man von der Matrix A displaystyle A nbsp auf die Zahl ϕ displaystyle phi nbsp An der Diagonalmatrix erkennt man sofort ϕ 0 0 1 ϕ 1 0 ϕ 0 displaystyle begin pmatrix phi amp 0 0 amp 1 phi end pmatrix cdot 1 choose 0 phi choose 0 nbsp dass es also einen Vektor u displaystyle u nbsp ungleich Null gibt der durch Multiplikation mit der Diagonalmatrix komponentenweise vervielfacht genauer ver ϕ displaystyle phi nbsp facht wird T 1 A T u ϕ u displaystyle T 1 AT u phi u nbsp Die Zahl ϕ displaystyle phi nbsp heisst wegen dieser Eigenschaft ein Eigenwert der Matrix T 1 A T displaystyle T 1 AT nbsp mit Eigenvektor u displaystyle u nbsp Im Fall von Diagonalmatrizen sind die Eigenwerte gleich den Diagonaleintragen ϕ displaystyle phi nbsp ist aber auch zugleich Eigenwert der ursprunglichen Matrix A displaystyle A nbsp mit Eigenvektor T u displaystyle Tu nbsp denn A T u ϕ T u displaystyle A Tu phi Tu nbsp die Eigenwerte bleiben bei Transformation der Matrix also unverandert Die Diagonalform der Matrix A displaystyle A nbsp ergibt sich demnach aus deren Eigenwerten und um die Eigenwerte von A displaystyle A nbsp zu finden muss man untersuchen fur welche Zahlen x displaystyle x nbsp das lineare Gleichungssystem A u x u displaystyle Au xu nbsp eine von Null verschiedene Losung u displaystyle u nbsp hat oder anders ausgedruckt die Matrix x E A displaystyle xE A nbsp nicht invertierbar ist Die gesuchten Zahlen x displaystyle x nbsp sind genau diejenigen die die Determinante der Matrix x E A displaystyle xE A nbsp zu Null machen Diese Determinante ist ein polynomialer Ausdruck in x displaystyle x nbsp das sogenannte charakteristische Polynom von A displaystyle A nbsp im Falle der oben genannten 2 2 Matrix A displaystyle A nbsp ergibt dies die quadratische Gleichung x 2 x 1 0 displaystyle x 2 x 1 0 nbsp mit den beiden Losungen x ϕ displaystyle x phi nbsp und x 1 ϕ displaystyle x 1 phi nbsp Die zugehorigen Eigenvektoren sind Losungen der linearen Gleichungssysteme A u ϕ u displaystyle Au phi u nbsp beziehungsweise A u 1 ϕ u displaystyle Au 1 phi u nbsp sie bilden dann die Spalten der Transformationsmatrix T displaystyle T nbsp Diagonalisierbarkeit Bearbeiten Ob eine Matrix diagonalisierbar ist hangt vom verwendeten Zahlbereich ab A displaystyle A nbsp ist zum Beispiel uber den rationalen Zahlen nicht diagonalisierbar weil die Eigenwerte ϕ displaystyle phi nbsp und 1 ϕ displaystyle 1 phi nbsp irrationale Zahlen sind Die Diagonalisierbarkeit kann aber auch unabhangig vom Zahlbereich scheitern wenn nicht genugend Eigenwerte vorhanden sind so hat etwa die Jordanform Matrix 1 1 0 1 displaystyle begin pmatrix 1 amp 1 0 amp 1 end pmatrix nbsp nur den Eigenwert 1 displaystyle 1 nbsp als Losung der quadratischen Gleichung x 1 2 0 displaystyle x 1 2 0 nbsp und ist nicht diagonalisierbar Bei genugend grossem Zahlbereich zum Beispiel uber den komplexen Zahlen lasst sich aber jede Matrix diagonalisieren oder in Jordansche Normalform transformieren Da die Transformation einer Matrix dem Basiswechsel einer linearen Abbildung entspricht besagt diese letzte Aussage dass man zu einer linearen Abbildung bei genugend grossem Zahlbereich stets eine Basis wahlen kann die auf einfache Weise abgebildet wird Im Fall der Diagonalisierbarkeit wird jeder Basisvektor auf ein Vielfaches von sich abgebildet ist also ein Eigenvektor im Fall der Jordanform auf ein Vielfaches von sich plus evtl den vorigen Basisvektor Diese Theorie der linearen Abbildung lasst sich auf Korper verallgemeinern die nicht genugend gross sind in ihnen mussen neben der Jordanform andere Normalformen betrachtet werden zum Beispiel die Frobenius Normalform Literatur Bearbeiten nbsp Wikibooks Lineare Algebra Lern und Lehrmaterialien Howard Anton Lineare Algebra Spektrum Akademischer Verlag Heidelberg ISBN 978 3 8274 0324 7 Albrecht Beutelspacher Lineare Algebra Vieweg Verlag ISBN 978 3 658 02412 3 Siegfried Bosch Lineare Algebra Springer Lehrbuch ISBN 978 3 540 76437 3 Egbert Brieskorn Lineare Algebra und analytische Geometrie Band 1 Vieweg Verlag 2012 ISBN 978 3 322 83175 0 Egbert Brieskorn Lineare Algebra und analytische Geometrie Band 2 Vieweg Verlag 1985 ISBN 978 3 528 08562 9 Theodor Brocker Lineare Algebra und Analytische Geometrie Birkhauser Verlag ISBN 978 3 7643 7144 9 Gerd Fischer Lineare Algebra Vieweg Verlag ISBN 978 3 658 03944 8 Gunter Gramlich Lineare Algebra Carl Hanser Verlag ISBN 978 3 446 44140 8 Gunter Gramlich Anwendungen der Linearen Algebra Carl Hanser Verlag ISBN 978 3 446 22655 5 Klaus Janich Lineare Algebra Springer Lehrbuch ISBN 978 3 540 75501 2 Hans Joachim Kowalsky Lineare Algebra de Gruyter Lehrbuch ISBN 978 3 11 017963 7 Burkhard Lenze Basiswissen Lineare Algebra Springer Vieweg 2020 ISBN 978 3 658 29968 2 Jorg Liesen Volker Mehrmann Lineare Algebra 3 Auflage Springer Berlin Heidelberg 2021 ISBN 978 3 662 62741 9 doi 10 1007 978 3 662 62742 6 Falko Lorenz Lineare Algebra 2 Bande BI Spektrum 2003 ISBN 3 8274 1406 7 Gilbert Strang Lineare Algebra Springer Lehrbuch ISBN 978 0 9802327 7 6 Shafarevich Igor Remizov Alexey Linear Algebra and Geometry Springer 2012 ISBN 978 3 642 30993 9 Weblinks Bearbeiten nbsp Commons Lineare Algebra Sammlung von Bildern Videos und Audiodateien nbsp Wikiversity Vorlesungen uber lineare Algebra I Kursmaterialien nbsp Wikiversity Vorlesungen uber lineare Algebra II Kursmaterialien MIT OpenCourseWare Video Lektionen zur linearen Algebra gehalten von Professor Gilbert Strang aufgenommen 1999 englisch 17 Kapitel lineare Algebra bei mathproject de in Deutsch und Englisch Mathematik Online Kurs kurze Lektionen zu vielen Themen der linearen Algebra Einzelnachweise Bearbeiten John Stillwell Mathematics and Its History Springer New York NY 2010 ISBN 978 1 4419 6052 8 S 88 89 doi 10 1007 978 1 4419 6053 5 6 Heinz Wilhelm Alten 4000 Jahre Algebra Geschichte Kulturen Menschen Springer Berlin u a 2003 ISBN 3 540 43554 9 S 335 339 Normdaten Sachbegriff GND 4035811 2 lobid OGND AKS Abgerufen von https de wikipedia org w index php title Lineare Algebra amp oldid 236810210