Title | Lineare Algebra Zusammenfassung |
---|---|
Author | Noah Kaufmann |
Course | Linear Algebra II |
Institution | Eidgenössische Technische Hochschule Zürich |
Pages | 9 |
File Size | 694.5 KB |
File Type | |
Total Downloads | 6 |
Total Views | 82 |
Lineare Algebra Zusammenfassung ORTHOGONALE M ATRIX MULTIPLIKATION Es gilt: und Zeilen stehen jeweils senkrecht aufeinander und sind normiert. winkeltreue Abbildungen 1 LINEARE GLEICHUNGSSYSTEME Zeilen Spalten Pivots. dim des aufgespannten Raums ) Pivotvariable: Variable Pivot Freie nicht Pivotvaria...
Lineare Algebra Zusammenfassung
ORTHOGONALE MATRIX
MULTIPLIKATION
Es gilt: -Spalten und Zeilen stehen jeweils senkrecht aufeinander und sind normiert. (skalarprod=0) -Macht längentreue, winkeltreue Abbildungen
1 LINEARE GLEICHUNGSSYSTEME m= # Zeilen
Ax=b
n= # Spalten r=Rang (# nicht-0-Zeilen)= # Pivots. Zeilen/Spalten= dim des aufgespannten Raums Rang(A)= Rang(𝐴𝑇 ) Pivotvariable: Variable über Pivot (●) Freie Parameter= nicht Pivotvariablen
r=m, für beliebige rechte Seiten lösbar, 1Lsg
r…) ≡r…)
≡A ist nicht invertierbar ≡Zeilen linear abhängig
LR-ZERLEGUNG Bei festem A und vielen verschiedenen b 𝑑 𝑒 𝑓 1 0 0 𝑃 ∙A = L ∙ R 𝐿 = ( 𝑎 1 0 ) 𝑅 = ( 0 𝑔 ℎ) 𝑏 𝑐 1 0 0 𝑖 Vorgehen: 1) Gaussen, In macht nur Zeilenvertauschungen mit andere Zeile von Zeile, bei welcher 0 erzeugt werden soll immer subtrahieren! 2) Dort wo in Zeilen-Stufenform Nullen stehen würden steht die Zahl, mit denen man die Zeilen multiplizieren musste um diese Nullen zu erzeugen. 3) Die vertauschte Einheitsmatrix ist die Permutationsmatrix P
Lc = Pb nach c auflösen Rx = c nach x auflösen Determinante mit LR: DETERMINANTE
=|A|
det(A)=|A| -gibt an ob Lösungen existieren -Volumen des aufgespannten Spats det(AB) = det(A)∙ det(B)
Det(rA) = r∙det(A)
det(AT )= det (A)
det(A−1 )=
det(𝐴)3 = (det(𝐴))3
1
det(𝐴)
ZUSAMMENHANG MIT VOLUMEN, FLÄCHE
2× 2: det(A)= Fläche des aufgespannten Parallelogramms (1/2 =Dreiecksfläche) 3×3: det(A)= Volumen des Parallelepipeds das die Vektoren aufspannen (1/6 = Pyramidenvolumen)
Det(A)≠0 Invertierbar/ regulär
Ax=0: Nur triviale Lösung Ax=b: genau eine Lösung
VEKTORRÄUME Reeller/Komplexer Vektorraum=Menge von Objekten mit folgenden Eigenschaften: (zu prüfen!) Addition ist definiert und es gilt:
Ax=0: unendlich viele Lösungen
Nicht invertiebar/ singulär Ax=b keine oder undendlich Lsg. Min 2 oder Spalten sind lin.abh. BERECHNUNG
zwei linear abhängige Spalten/Zeilen: det(A)=0! Multipliziert man eine Zeile mit einem Skalar a, so verfielfacht sich die Determinante mit a A 0 1 det [ 3α a det ( 0 0
2× 2:det [
1) 2) 3) 4)
a+b=b+a (a+b)+c=a+(b+c) Es gibt einen Nullvektor 0, es gilt: a+0=a Zu jedem Vektor gibt’s Gegenvektor –a, es gilt: a+(-a)=0
Multiplikation ist definiert und es gilt:
entwickle nach einer Zeile od. Spaltemit mögl.vielen + − + Nullen − + − + − + Jede Zeilenvertauschung ändert das Vorzeichen
det [
LINEARE ABHÄN GIGKEIT 1) Eine Zeile/Spalte ist ein Vielfaches einer anderen Zeile/Spalte 2) Nullzeile bei Gauss Lineare Unabhängigkeit:
DET UND LGS, INVERTIERBARKEIT
Det(A)=0
𝑥𝑦 ) es dürfen nur Variabeln vorkommen sonst kein ( 5𝑥 − 𝑦 UR, da sonst erste Regel nicht erfüllt
da eb fc ] = aei + bfg + dhc − ahf − idb − gec 3×3: det [ g Matrizen h i zuerst Gauss Bei grossen
det(A) = det(P) ∙ det(𝑅)
B ]= det(A)∙det(C) A=n×n C=m×m C 2 1 2] ] =∝∙ det [ 3 4 4α b c d e)= a∙ d ∙ f 0 f
a b ]= ad-bc c d
1) α(βa)=(αβ)a
∑𝑛𝑖=1 𝑥𝑖 𝑣𝑖 = 0 hat nur triviale Lösung x=0 ERZEUGENDENSYSTEM Kann jeder Vektor b eines Vektorraumes V durch die (1) (n) (1) (n) Vektoren a …a dargestellt werden, so ist a …a ein Erzeugendensystem von V. (1) (2) (n) b=x1a +x2a +…+xna (1)
(n)
(1)
(n)
→ span(a ,…,a ) (von a ,…,a ) aufgespannter VR
Mehr als n Vektoren sind lin. Abh. Weniger als n Vektoren sind nicht erzeugend
2) (α+β)a=αa+βa, α(a+b)= αa+ αb 3) 1a=a
BASIS (1)
(n)
a …a
AX=B erzeugend und linear unabhängig
UNTERRAUM
dim = Anz. unabh. Zeilen
Eine nichtleere Teilmenge von U von V heisst Unterraum falls:
Vorgehen: Gaus:
1) Mit a,b ϵ U ist auch a+b ϵ U 2) Mit a ϵ U ist auch ∝∙a ϵ U Nicht alle Teilmengen von Vektorräumen sind wieder Vektorräume → A1-M3 überprüfen!! V selbst und der Nullvektor sind immer Unterräume von V. U1∩U2 und U1+U 2 sind Unterräume von V
m=Zeilen n=Spalten/Unbekannte r=n: linear unabhängig rAx+a (ist nicht linear wegen a)
Kontraktion: ||𝐹(𝑥) − 𝐹(𝑦)|| ≤ 𝑐||𝑥 − 𝑦|| c
0 2 A = ( 0 −1 0 0
2
1 −1 ) 𝑥 2 𝑥 0
0 4) −2
Wenn P2 auf P1 abgebiledet wird 2x3 Matrix
Lösungsraum von x finde (a)(A)= ( 0 ) 2
=“Wertebereich“
0
𝑥2
BILD UND KER N EINER MATRIX Bild einer Matrix:=Anz. Linear unabhängiger Vektoren.
LINEARE ABBILDUN G UND SKALARPRODUKT 𝐵𝑖𝑙𝑑(𝐴)𝑢𝑛𝑑 𝐾𝑒𝑟𝑛 (𝐴𝑇 )𝑠𝑝𝑎𝑛𝑛𝑒𝑛 𝑊 𝑚 𝑎𝑢𝑓
𝐵𝑖𝑙𝑑(𝐴)𝑠𝑡𝑒ℎ𝑡 𝑠𝑒𝑛𝑘𝑟𝑒𝑐ℎ𝑡 𝑎𝑢𝑓 𝐾𝑒𝑟𝑛(𝐴𝑇 ) (Skalarprodukt =0)
dim(𝐵𝑖𝑙𝑑(𝐴)) + (𝐾𝑒𝑟𝑛 (𝐴𝑇 )) = dim(𝑊 𝑚 ) = 𝑚 Fredholm Alternative:
𝑥 0 0 4 ) ∙ ( 𝑦) = ( 0) 𝑧 0 −2
1 Hier Kern(A)=span{𝑡 ( 0)) 0
2 2 Kann auch mehrdim. sein Kern(A)=span{𝑡 ( 6) , 𝑠 ( 5 )} 0 −1 1) 𝑏 ∈ 𝐵𝑖𝑙𝑑(𝐴) ⟺ 𝐴𝑥 = 𝑏 𝑙ö𝑠𝑏𝑎𝑟 2) 𝐵𝑖𝑙𝑑(𝐴) = 𝑠𝑝𝑎𝑛{𝑎(1) , … , 𝑎(𝑛) } ({Spaltenvektoren von A}) 3) 𝑥 ∈ 𝐾𝑒𝑟𝑛(𝐴) ⟺ 𝑥𝑖𝑠𝑡 𝐿ö𝑠𝑢𝑛𝑔𝑣𝑜𝑛 𝐴𝑥 = 0 4) 𝐾𝑒𝑟𝑛 (𝐴)𝑖𝑠𝑡 𝑈𝑛𝑡𝑒𝑟𝑟𝑎𝑢𝑚 𝑣𝑜𝑛 𝑉 𝑛 =ℝ𝑛 5) 𝐵𝑖𝑙𝑑(𝐴)𝑖𝑠𝑡 𝑈𝑛𝑡𝑒𝑟𝑟𝑎𝑢𝑚 𝑣𝑜𝑛 𝑊 𝑚 =ℝ𝑚 6) dim(𝐵𝑖𝑙𝑑 (𝐴) + dim(𝐾𝑒𝑟𝑛 (𝐴)) = 𝑛 (𝑆𝑝𝑎𝑙𝑡𝑒𝑛𝑧𝑎ℎ𝑙) 7) dim(𝐵𝑖𝑙𝑑 (𝐴)) = dim(𝐵𝑖𝑙𝑑(𝐴𝑇 )) (𝑅𝑎𝑛𝑔𝑣𝑜𝑛𝐴𝑥 = 𝑏)
Kern(A)= {𝐴𝑥 = 0|𝑥𝜖 𝑉 }, Lösungsmenge von Ax=0 und ist n Unterraum von V Bzw F(x)=0 (Vektoren, die auf 0 abgebildet werden) Dim(Kern(A))= n – r n m Bild(A): {𝐴𝑥 = 𝑏|𝑥𝜖𝑉 so dass y=Ax, 𝑦𝜖𝑉 } n
Wertebereich, und ist Unterraum von V Bzw y=F(x)
Dim(BildA)=Rang von Ax=b Ax=0 => Dim(KernA)=0
Ax=b ist genau dann lösbar, wenn b senkrecht auf allen Lösungen des LGS 𝐴𝑇 𝑦 = 0 steht
ZUSAMMENSETZUNG VON LINEAREN ABBILDUNGEN
Es gilt:
Matrizen sind immer lineare Abbildungen
𝐹(𝑏1 ) =
04 )} ) , ( −2
Kern einer Matrix (x,y,z) gaussen erlaubt =“Defbereich“
Jede lineare Abbildung kann man als Produkt mit einer Matrix darstellen
0
RangA=RangA Falls Kern nur aus Nullvektor-> invertierbar
0 Wähle linear unabhängige und erzeugende Spaltenvektoren von A → Pivotspalten nach Gauss besonders einfach
0 2 ( 0 −1 0 0
LINEARE ABBILDUNGEN
1 (2 − 𝑥) ∙ 0 =( 0) 𝑥 2 𝑥 0
0
T
04
) −2 2 Bild(A)=span{( −1 A=(
0
00 −1 2
n
Dim(BildA)+Dim(KernA)=dim(V )=n
n
Zusammensetzung von linearen Abbildungen ist wieder linear
UMKEHRBARE ABBILDUNGEN, LINEARE SELBSTABBILDUN G 1) eine lineare Abbildung ist genau dann umkehrbar, wenn A regulär (det(A)≠ 0, 𝑖𝑛𝑣𝑒𝑟𝑡𝑖𝑒𝑟𝑏𝑎𝑟) ist.
2) ist 𝐹: 𝑥 → 𝑥′ = 𝐴𝑥 umkehrbar, so ist 𝐹 −1 linear. 𝐹 −1 wird durch die Matrix 𝐴−1 beschrieben. 𝐹 −1 : 𝑥′ → 𝑥 = 𝐴−1 𝑥′ 3) Ist 𝐹 umkehrbar, so gilt𝐹 −1 (𝐹) = 𝐹(𝐹 −1 ) = 𝐼𝑛 Rang(A)= Rang(A)
T
NORMIERTE VEKTORRÄUM E Eine Norm (=Länge) ist eine Vorschrift, die jedem Vektor eine reelle Zahl zuordnet. ‖𝑎‖≥ 0 ‖𝑎‖=0 1) wenn a=0 ‖𝛼𝑎‖=|𝛼|‖𝑎‖ 2) ‖𝑎 + 𝑏 ‖≤ ‖𝑎‖+ ‖𝑏‖ 3) (Dreiecksgleichung)
VOM SKALARPRODUKT INDUZIERTE NORM ||∙||
1 𝑃
||x||𝑃 =( (𝑥1 ) + (𝑥2 ) + … ) ||x||∞ = max{|𝑥1 |,…,|𝑥𝑛 |} ||𝛼x||∞ =|𝛼| ||x||∞ ||x||1 = |𝑥1 | + |𝑥2 | + ⋯ + |𝑥𝑛 | 𝑃
i)
die orthogonale Projektion eines Vektors x auf
ii)
(𝑥, 𝑦) ≤ (𝑥, 𝑥)(𝑦, 𝑦) Schwarzsche Ungleichung
Wichtige Normen in C 𝑏
1
||f||𝐿𝑃 = (∫𝑎 |𝑓(𝑥)|𝑃 𝑑𝑥)𝑃
(Betrag grösster Wert)
1≤ 𝑃 ≤ ∞
||f||𝐿∞ = max{|f(x)|; 𝑎 ≤ 𝑥 ≤ 𝑏 } (ableiten=0 setzen) Euklidsche Norm / L2-Norm: ||x||=√𝑥12 + 𝑥22 + ⋯
1 𝑐
∙ | |𝑥|| ≤ ||𝑥|| ≤ ||𝑥|| 𝑐
iii) iv)
den Vektor y≠0 durch den Vektor 2
(𝑦,𝑥)
(𝑦,𝑦)
𝑦.
||x||=√(𝑎, 𝑏) ||∙|| ist die Norm Stehen 2 Vektoren senkrecht aufeinander, also (x,y)=0, so gilt: (Parallelogrammregel) ||𝑣 + 𝑤 ||2 + ||𝑣 − 𝑤 ||2 = 2(||𝑣||2 + ||𝑤||2 )
||x||=√(𝑎, 𝑏)=Wurzel von der Norm Wichtige Skalarprodukte: (für Norm: ||x||=√< 𝒂, 𝒃 >)
(𝑥, 𝑦) = 𝑥 𝑇 𝐷𝑥
(𝑥, 𝑦) = ∫𝑎 𝑓 (𝑡)𝑔(𝑡)𝑑𝑡 𝑏
𝑎 𝑏 (𝑥𝑥21) ∙ ( ) ∙ (𝑦𝑦12 ) 𝑐 𝑑
ORTHOGONALISIEREN Zwei Vektoren stehen senkrecht aufeinander, falls (x,y)=0= cosφ
Vorschrift, die zwei Vektoren (x,y) eine Zahl zuordnet.
Vektorraum V mit Skalarprodukt
(S1) ist linear im zweiten Faktor, d.h. es gilt: (Matrix immer!) i) (x,𝑦1 + 𝑦2 ) = (𝑥, 𝑦1 ) + (𝑥, 𝑦2 ) ii) (x,𝛼𝑦) = 𝛼(𝑥, 𝑦) mit 0 mult. geeignet (S2) ist symmetrisch; d.h es gilt: i) (x,y) = (y,x) (S3) ist positiv definiert, d.h es gilt: i) (x,x)≥ 0 ii) (x,x)=0 folgt x=0 Es gilt: orthgonale Vektoren sind linear unabhängig
Orthogonale Projektion von x auf y:
(𝑦,𝑥)
(𝑦,𝑦)
𝑦 (Vektor)
SCHMIDTSCHES ORTHOGONALISIERUNGSVERFAHREN Gegeben seien Vektoren a, b, und c Setze 𝑒1 =
1
||𝑎||
𝑎 (normiere)
Finde senkrechten Hilfsvektor ℎ1 = 𝑏 − (𝑏, 𝑒1 )𝑒1
Normiere ℎ1 => 𝑒2 =
1 ℎ ||ℎ1 || 1
Finde ℎ2 = 𝑐 − (𝑐, 𝑒1 )𝑒1 − (𝑐, 𝑒2 )𝑒2 1
Normiere ℎ𝑞 => 𝑒3 = ||ℎ || ℎ2 2
< 𝑥, 𝑦 > 𝑦 = () ∙ () = 𝑍𝑎ℎ𝑙 ∙ 𝑦 || || = normieren
Bei anderen Skalarprodukten:
𝑏
hat eigene Definition, bei (𝑥, ) = ∫𝑎 𝑓(𝑡)𝑔(𝑡)𝑑𝑡
nicht mit Vektoren rechnen! ||a||=√< 𝑎, 𝑎 >
KOORDINATENTRANSFORMATION
!!
TCA ist Übergangsmatrix von A nach C
1 TCA∙ ( 𝑖𝑛𝑣1𝑨)=( 𝑖𝑛 𝑪)
𝑣
Falls C= Standardbasis, A andere Basis => TCA= 𝑎1 = 𝑡 (𝑐1 ) + 𝑠(𝑐2 ) 𝑎2 = 𝑞 (𝑐1 ) + 𝑝(𝑐2 ) (Basisvektoren von A mit Standardbasis C schreiben) TAC = Inverse von TCA 𝐴−1 = [
𝑎 𝑐
1 𝑏 −1 𝑑 −𝑏 ] = det(𝐴) ∙ [ ] 𝑑 −𝑐 𝑎
Falls 2 kompliziertere Basen gegeben: TAB= TAC∙TCB
SKALARPRODUKT
Das Skalarprodukt…
Bei Standardskalarprodukt :
Der Vektorraum mit Skalarprodukt erfüllt folgendes:
Wichtige Normen in V (Lp-Normen) 𝑃
(𝑦,𝑥)
Projektion von x auf y ist der Vektor 𝑦 (𝑦,𝑦) (𝑥, 𝑦)2 ≤ (𝑥, 𝑥)(𝑦, 𝑦) schwarzsche Ungleichung
S ist Übergangsmatrix von B‘ nach B T ist Übergangsmatrix von B nach B‘
S=T-1
= dim ER λ =Anzahl Vektoren für ER = Anz. Freier Parameter
EIGENWERTPROBLEM EIGENWERT
EW
EW sind Nullstellen des Charakteristischen Polynoms 𝐝𝐞𝐭(𝐀 − 𝛌𝐈𝐧 ) = 𝟎
λ ist Eigenwert wenn gilt: Av = λv (nur Streckung von Eigenvektor)
Nicht gaussen vor Berechnung der EW! (A − λIn ) darf gegausst werden es existiert mindestens 1 EW und höchstens n 1 𝜆
ist 𝜆 ein EW von A, so ist ein EW von A
-1
Spur einer diagonalisierbaren Matrix =Summe(EW)
Anz. Nullsteillen eines Eigenwerts im Char. Polynom (x − λ1 )1 ∙ (x − λ2 )3 =0 λ1 : AlgVF = 1 λ2 : AlgVF = 3 Ist eine Matrix A halbeifnach, so auch An
v ist Eigenvektor von A wenn gilt Av = λv (Nullvektor≠ EV) Setze Eigenwert in A − λIn ein. (𝐀 − 𝛌𝐈𝐧 )𝒙 = 𝟎 Gausse, bestimme x. (hier nur 1 freier Parameter) 𝑐 𝑥3 =∝ 𝑥2 = 𝑏 ∝ 𝑥1 = 𝑐 ∝ v=∝ ( 𝑏) 1 Bsp: 𝑥3 =∝
𝑥2 = 𝛽
𝑥1 =∝ −𝛽
Eigenraum von A zum Eigenwert 𝜆 : 1 −1 𝐸𝜆 = {𝛼 ( 0) + 𝛽 ( 1 ) |𝛼, 𝛽 ∈ ℝ} 0 1
GEOMETRISCHE VIELFACHHEIT
ähnilche Matrizen haben gleiche Eigenwerte A hat höchsten s n Eigenwerte 1≤ algebraische Vielfachheit ≤ n
1≤ geom. Vielfachhiet ≤ alg. Vielfachheit (von 𝜆) EV sind linear unabhängig
ORTHONORMALE EIGENBASIS
Vorgehen: Schmidtsches Orthogonalisierungsverfahren auf Eigenvektoren des gleichen Eigenwerts anwenden (nicht von verschiedenen EW!!) Normieren der verbleibenden EV Resultat = orthonormale Eigenbasis
E
EIGENRAUM (UNTERRRAUM) ER
ZUSAMMENHÄNGE jede quadrat. Matrix A hat min. 1 EW
A und B seien 2 beliebige quadratische Matrizen Ist A diagonalisierbar, so auch 𝐴−1 , 𝐴𝑇 EINFACHHEIT Quadratische Matrix ist: Einfach: alg. VF= geom. VF=1 Halbeinfach: alg. VF=geom. VF für jeden EW einfache Matrizen sind auch halbeinfach zu jeder einfachen/halbeinfachen Matrix gibt es eine Eigenbasis jede einfache/halbeinfache Matrix ist diagonalisierbar
Basis von Eigenvektoren einer Matrix A
ALGEBRAISCHE VIELFACHHEIT
EIGENVEKTOR
1≤ geometrische ≤ algebraische Vielfachheit
(EIGENBASIS) 𝛼−𝛽 v =( 𝛽 ) 𝛼
Falls Inverse gefragt ist-> transponieren
DIAGONALISIE RBARKEIT: Matrix A ist diagonalisierbar falls es eine reguläre Matrix T
gibt, so dass die Matrix 𝑫 = 𝑻−𝟏 𝑨𝑻 eine Diagonalmatrix ist. ↔ algV = geomV für alle EW
D: In der Diagonalen stehen Eigenwerte von A T: Spalten von T bilden Eigenbasis zu A Anwendung: Lineare Abbildung besonders einfach, wenn Matrix Diagonalgestalt hat. D ist dann neue Abbildungsmatrix. Folgende Aussagen sind äquivalent: Matrix A ist diagonalisierbar Matrix A besitzt eine Eigenbasis Matrix A ist halbeinfach
EW-PROBLEM SYMMETRISCHER MATRIZEN A sei eine reelle Matrix. Es gilt: T kann orhogonal gewählt werden Alle EW sind reell EV zu verschiedenen EW stehen senkrecht zueinander A ist halbeinfach (alg Vf = geom. Vf) (immer diag.bar) Es gibt eine orthonormale Eigenbasis zu A A ist diagonalisierbar: D =𝑻𝑻 𝑨𝑻 (T ist orthogonal und somit gilt: 𝑇 −1 = 𝑇 𝑇 ) FOLGERUNGEN AUS DEM EW -PROBLEM BERECHNUNG VON 𝒚 = 𝑨𝒌 𝒙 , 𝑨𝒌
1) EW und EV bestimmen, T und D, sodass 𝐷 = 𝑇 −1 𝐴𝑇 (diagonalisieren) (Wenn A symmetrisch, einfacher, 𝐴𝑘 = 𝑇 𝐷𝑘 𝑇 𝑇 ) 2) 𝑤 = 𝐷 𝑘 𝑧 3) 𝑦 = 𝑇𝑤 4) 𝑦 = 𝐴𝑘 𝑥 = 𝑇 𝐷𝑘 𝑇 −1 𝑥 (𝐴𝑘 = 𝑇 𝐷𝑘 𝑇 −1) 5) 𝑧 = 𝑇 −1 𝑥, also 𝑇𝑧 = 𝑥nach z auflösen 6) 𝐴𝑘 𝑥 = 𝑇 𝐷𝑘 𝑧 berechnen
𝐴2 = 𝐴 ∙ 𝐴
𝐴−1 = [
𝑎 𝑐
𝑑 −𝑏 1 𝑏 −1 ] ] = det(𝐴) ∙ [ −𝑐 𝑎 𝑑
Ist eine Matrix A halbeifnach, so auch An
ANWENDUNGEN ZUM EW -PROBLEM QUADRATISCHE FORMEN
oder einfach Matrizen multiplizieren... Trick: wenn Char. Polynom gilt: BERECHNUNG VON 𝒆𝑨 , MATRIXEXPONENTIALFUNKTION Vorgehen:
dann = Matrix mit nur 0 en
q(a)= 𝑥 𝑇 𝐴𝑥 heisst quadratische Form Beispiel:𝑞 (𝑥) =
𝑎𝑥12
+ 𝑏𝑥1 𝑥2 +
𝑐𝑥22
𝑎 𝑏/2 A =( ) 𝑏/2 𝑐
Ziel: herausfinden um welche Art Kegelschnitt es sich bei Q handelt, indem wir 𝑥 𝑇 𝐴𝑥 + 𝑎𝑇 𝑥 + 𝑏 durch Hauptachsentransformation und Translation in Normalform bringen.
bestimme EW, EV, T und D 𝒆𝑨 = 𝑻 𝒆𝑫 𝑻−𝟏
Translation 𝑧 = 𝑦 + 𝑘 k ist konstanter Vektor Ist 𝑞𝐴 (𝑥) von der Form so nimmt ist k = . So verschwindet der quadratich ergänzte Term und Q kann in der Normalform beschrieben werden.
Normalform: in dieser Form gibt es keine gemischten Terme mehr. zugehörige Koordinatentransformation: 𝒛 = 𝑦 + 𝑐 = 𝑻𝑻 𝒙 + 𝒄
(sollte Vektor ergeben)
LOKALE EXTREMA
𝑒 𝐷 = 𝑑𝑖𝑎𝑔(𝑒 𝜆1 , … , 𝑒 𝜆𝑛 )
𝑒 𝐴 ∙ 𝑒 𝐵 = 𝑒 𝐴+𝐵 ⟺ 𝐴𝐵 = 𝐵𝐴 Rechenregeln:
MATRIXNORMEN 2-Norm ||A||2
HAUPTACHSENTRANSFOR MATION 1) finde Eigenwerte und Eigenvektoren 2) A diagonalisieren ⟶ 𝑇, 𝐷 finden 3) T orthogonalisieren D = 𝑇 𝑇 𝐴𝑇 (wenn nötig, sonst normieren) 4) 𝑦 = 𝑇 𝑇 𝑥 definieren ⟶ x=Ty (weil T orthogonal) 5) in quadratische Form einsetzen 𝒒𝑨 (𝒙) = 𝑥 𝑇 𝐴𝑥 = 𝒚𝑻 𝑫𝒚 diese Form heisst Normalform Ist Aufgabe zusammengesetzt Bsp:
A positiv definit: alle EW von A>0 A negativ definit: alle EW von A 0 *
𝑞𝐴 (𝑥) < 0 *
𝑞𝐴 (𝑥) + 𝑢𝑛𝑑 −
AUSGLEICHSRECHNUNG
Methode um überbestimmte Gleichungen zu lösen
METHODE DER KLEINSTEN QUADRATE Fehlergleichung: 𝑨𝒙 − 𝒄 = 𝒓
r: Residuenvektor, Messfehler (steht senkrecht auf Bild(A))
Kritische Punkte:
𝜕𝑓
𝜕𝑥
(𝑥, 𝑦) =
𝜕𝑓
𝜕𝑦
(𝑥, 𝑦) = 0
geg: Funktion Gleichungen voneinander subtrahieren 𝜕𝑓
𝜕𝑥
(𝑥, 𝑦) −
𝜕𝑓
𝜕𝑦
(𝑥, 𝑦), so Kriterium bestimmen
Normalengleichung: 𝑨𝑻𝑨𝒙 = 𝑨𝑻 𝒄
1. ORDNUNG 𝑦1 𝑐 = ( 𝑦2 ) 𝑦3
Hurwitz Kriterium:
𝑨𝑻 𝑨𝒙 = 𝑨𝑻 𝒄 nach x auflösen (a), b ,c einsetzen in 𝑦 = (𝑎𝑥 2 ) + 𝑏𝑥 + 𝑐
||𝑨𝒙 − 𝒄||𝟐 = ||𝒓||𝟐 𝑓𝑥𝑥 𝑓𝑥𝑦 ) = Hessesche Matrix 𝑓𝑦𝑥 𝑓𝑦𝑦
DIFFERENTIALGLEI CHUNG EN
Finde Matrix A, c
In eine der obigen Gl. einsetzen, Punkte (x,y) bestimmen
𝐻𝑓 (𝑎) = (
𝑅 Falls A= nxn muss unterste Zeile von 𝑅 = ( 0 ) muss 0 in Null sein. Finde t, setze t in Givensrotation und 𝑅0 ein 𝑑 𝑑 = 𝑄𝑇 𝑐 berechne 𝑑 = ( 0 ) 0 𝑅0 ∙ 𝑥 = 𝑑0 (d ohne unterste Zeile) finde x (vektor)
||r||2 = ||𝑑||2
Bsp: Geg:𝑦 = 𝑓(𝑥) = 𝑎𝑥 2 + 𝑏𝑥 + 𝑐
𝐴 = 𝑄𝑅 𝑄𝑇 𝐴 = 𝑅
→ √𝑟12 + ⋯ + 𝑟𝑛2 minimal
Sind die Spalten der Koeffizientenmatrix A linear unabhängig, so besitzt die Normalgleichung eine eindeutige Lösung. Eine lineare Ausgleichsaufgabe hat genau dann eindeutig, wenn Rang(A)=n Minimaler Residuenvektor ist immer eindeutig QR-ZERLEGUNG Genauer als Methode der kleinsten Quadrate
Geg: A und c (von 𝐴𝑥 − 𝑐 = 𝑟 ) und Q= orthogonal
1 0 Bsp: ( 0 𝑐𝑜𝑠𝑡 0 −𝑠𝑖𝑛𝑡 (orthogonal)
0 𝑠𝑖𝑛𝑡 ) = Givensrotation =𝑄𝑇 = 𝑄 𝑐𝑜𝑠𝑡 𝑅 𝑅 = ( 0) 0
Vorgehen :
ANFANGSWERTPROBLEM: ANFNAGSWERTPROBLEM
IRGENDETWAS
SYSTEME 2. ORDNUN G
ÄHNLICHE MATRIZEN Zwei quadratische Matrizen sind ähnlich falls gilt: B=T-1AT
RÜCKFÜHRUNG AUF EINE DIFFERENTIALGLEICHUNG ERSTER ORDNUNG
A und B haben dieselben Eigenwerte.
Haben gleiche Determinante A und B sind Darstellungsmatrizen derselben Funktion
Sind A und B ähnlich und sei x ein Eigenvektor von A, so ist y= T-1x ein EV von B (zum selben EW wie bei A)
GEOMETRISCHE IN TERPR ETATION VON ABBILDUNGEN
INHOMOGENE LINEARE GLEICHUNGSSYSTEME
GEOMETRISCHE INTERPRETATION VON MATRIZEN
f)
g)
h)
i)
BERECHNUNG EINER ABBILDUNGSMATRIX...