Lineare Algebra Zusammenfassung PDF

Title Lineare Algebra Zusammenfassung
Author Noah Kaufmann
Course Linear Algebra II
Institution Eidgenössische Technische Hochschule Zürich
Pages 9
File Size 694.5 KB
File Type PDF
Total Downloads 6
Total Views 82

Summary

Lineare Algebra Zusammenfassung ORTHOGONALE M ATRIX MULTIPLIKATION Es gilt: und Zeilen stehen jeweils senkrecht aufeinander und sind normiert. winkeltreue Abbildungen 1 LINEARE GLEICHUNGSSYSTEME Zeilen Spalten Pivots. dim des aufgespannten Raums ) Pivotvariable: Variable Pivot Freie nicht Pivotvaria...


Description

Lineare Algebra Zusammenfassung

ORTHOGONALE MATRIX

MULTIPLIKATION

Es gilt: -Spalten und Zeilen stehen jeweils senkrecht aufeinander und sind normiert. (skalarprod=0) -Macht längentreue, winkeltreue Abbildungen

1 LINEARE GLEICHUNGSSYSTEME m= # Zeilen

Ax=b

n= # Spalten r=Rang (# nicht-0-Zeilen)= # Pivots. Zeilen/Spalten= dim des aufgespannten Raums Rang(A)= Rang(𝐴𝑇 ) Pivotvariable: Variable über Pivot (●) Freie Parameter= nicht Pivotvariablen



r=m, für beliebige rechte Seiten lösbar, 1Lsg



r…) ≡r…)

≡A ist nicht invertierbar ≡Zeilen linear abhängig

LR-ZERLEGUNG Bei festem A und vielen verschiedenen b 𝑑 𝑒 𝑓 1 0 0 𝑃 ∙A = L ∙ R 𝐿 = ( 𝑎 1 0 ) 𝑅 = ( 0 𝑔 ℎ) 𝑏 𝑐 1 0 0 𝑖 Vorgehen: 1) Gaussen, In macht nur Zeilenvertauschungen mit andere Zeile von Zeile, bei welcher 0 erzeugt werden soll immer subtrahieren! 2) Dort wo in Zeilen-Stufenform Nullen stehen würden steht die Zahl, mit denen man die Zeilen multiplizieren musste um diese Nullen zu erzeugen. 3) Die vertauschte Einheitsmatrix ist die Permutationsmatrix P

Lc = Pb nach c auflösen Rx = c nach x auflösen Determinante mit LR: DETERMINANTE

=|A|

det(A)=|A| -gibt an ob Lösungen existieren -Volumen des aufgespannten Spats det(AB) = det(A)∙ det(B)

Det(rA) = r∙det(A)

det(AT )= det (A)

det(A−1 )=

det(𝐴)3 = (det(𝐴))3

1

det(𝐴)

ZUSAMMENHANG MIT VOLUMEN, FLÄCHE

2× 2: det(A)= Fläche des aufgespannten Parallelogramms (1/2 =Dreiecksfläche) 3×3: det(A)= Volumen des Parallelepipeds das die Vektoren aufspannen (1/6 = Pyramidenvolumen)

Det(A)≠0 Invertierbar/ regulär

Ax=0: Nur triviale Lösung Ax=b: genau eine Lösung

VEKTORRÄUME Reeller/Komplexer Vektorraum=Menge von Objekten mit folgenden Eigenschaften: (zu prüfen!) Addition ist definiert und es gilt:

Ax=0: unendlich viele Lösungen

Nicht invertiebar/ singulär Ax=b keine oder undendlich Lsg. Min 2 oder Spalten sind lin.abh. BERECHNUNG 

  

  

zwei linear abhängige Spalten/Zeilen: det(A)=0! Multipliziert man eine Zeile mit einem Skalar a, so verfielfacht sich die Determinante mit a A 0 1 det [ 3α a det ( 0 0

2× 2:det [

1) 2) 3) 4)

a+b=b+a (a+b)+c=a+(b+c) Es gibt einen Nullvektor 0, es gilt: a+0=a Zu jedem Vektor gibt’s Gegenvektor –a, es gilt: a+(-a)=0

Multiplikation ist definiert und es gilt:

entwickle nach einer Zeile od. Spaltemit mögl.vielen + − + Nullen − + − + − + Jede Zeilenvertauschung ändert das Vorzeichen

det [

LINEARE ABHÄN GIGKEIT 1) Eine Zeile/Spalte ist ein Vielfaches einer anderen Zeile/Spalte 2) Nullzeile bei Gauss Lineare Unabhängigkeit:

DET UND LGS, INVERTIERBARKEIT

Det(A)=0

𝑥𝑦 ) es dürfen nur Variabeln vorkommen sonst kein ( 5𝑥 − 𝑦 UR, da sonst erste Regel nicht erfüllt

da eb fc ] = aei + bfg + dhc − ahf − idb − gec 3×3: det [ g Matrizen h i zuerst Gauss Bei grossen

det(A) = det(P) ∙ det(𝑅)

B ]= det(A)∙det(C) A=n×n C=m×m C 2 1 2] ] =∝∙ det [ 3 4 4α b c d e)= a∙ d ∙ f 0 f

a b ]= ad-bc c d

1) α(βa)=(αβ)a

∑𝑛𝑖=1 𝑥𝑖 𝑣𝑖 = 0 hat nur triviale Lösung x=0 ERZEUGENDENSYSTEM  Kann jeder Vektor b eines Vektorraumes V durch die (1) (n) (1) (n) Vektoren a …a dargestellt werden, so ist a …a ein Erzeugendensystem von V. (1) (2) (n) b=x1a +x2a +…+xna (1)

(n)

(1)

(n)

→ span(a ,…,a ) (von a ,…,a ) aufgespannter VR

 Mehr als n Vektoren sind lin. Abh.  Weniger als n Vektoren sind nicht erzeugend

2) (α+β)a=αa+βa, α(a+b)= αa+ αb 3) 1a=a

BASIS (1)

(n)

a …a

AX=B erzeugend und linear unabhängig

UNTERRAUM

dim = Anz. unabh. Zeilen

Eine nichtleere Teilmenge von U von V heisst Unterraum falls:

Vorgehen: Gaus:

 1) Mit a,b ϵ U ist auch a+b ϵ U  2) Mit a ϵ U ist auch ∝∙a ϵ U  Nicht alle Teilmengen von Vektorräumen sind wieder Vektorräume → A1-M3 überprüfen!!  V selbst und der Nullvektor sind immer Unterräume von V.  U1∩U2 und U1+U 2 sind Unterräume von V

m=Zeilen n=Spalten/Unbekannte  r=n: linear unabhängig  rAx+a (ist nicht linear wegen a)

Kontraktion: ||𝐹(𝑥) − 𝐹(𝑦)|| ≤ 𝑐||𝑥 − 𝑦|| c

0 2 A = ( 0 −1 0 0

2

1 −1 ) 𝑥 2 𝑥 0

0 4) −2



Wenn P2 auf P1 abgebiledet wird 2x3 Matrix



Lösungsraum von x finde (a)(A)= ( 0 ) 2

=“Wertebereich“

0

𝑥2

BILD UND KER N EINER MATRIX Bild einer Matrix:=Anz. Linear unabhängiger Vektoren.

LINEARE ABBILDUN G UND SKALARPRODUKT 𝐵𝑖𝑙𝑑(𝐴)𝑢𝑛𝑑 𝐾𝑒𝑟𝑛 (𝐴𝑇 )𝑠𝑝𝑎𝑛𝑛𝑒𝑛 𝑊 𝑚 𝑎𝑢𝑓

𝐵𝑖𝑙𝑑(𝐴)𝑠𝑡𝑒ℎ𝑡 𝑠𝑒𝑛𝑘𝑟𝑒𝑐ℎ𝑡 𝑎𝑢𝑓 𝐾𝑒𝑟𝑛(𝐴𝑇 ) (Skalarprodukt =0)

dim(𝐵𝑖𝑙𝑑(𝐴)) + (𝐾𝑒𝑟𝑛 (𝐴𝑇 )) = dim(𝑊 𝑚 ) = 𝑚 Fredholm Alternative:

𝑥 0 0 4 ) ∙ ( 𝑦) = ( 0) 𝑧 0 −2

1 Hier Kern(A)=span{𝑡 ( 0)) 0

2 2 Kann auch mehrdim. sein Kern(A)=span{𝑡 ( 6) , 𝑠 ( 5 )} 0 −1 1) 𝑏 ∈ 𝐵𝑖𝑙𝑑(𝐴) ⟺ 𝐴𝑥 = 𝑏 𝑙ö𝑠𝑏𝑎𝑟 2) 𝐵𝑖𝑙𝑑(𝐴) = 𝑠𝑝𝑎𝑛{𝑎(1) , … , 𝑎(𝑛) } ({Spaltenvektoren von A}) 3) 𝑥 ∈ 𝐾𝑒𝑟𝑛(𝐴) ⟺ 𝑥𝑖𝑠𝑡 𝐿ö𝑠𝑢𝑛𝑔𝑣𝑜𝑛 𝐴𝑥 = 0 4) 𝐾𝑒𝑟𝑛 (𝐴)𝑖𝑠𝑡 𝑈𝑛𝑡𝑒𝑟𝑟𝑎𝑢𝑚 𝑣𝑜𝑛 𝑉 𝑛 =ℝ𝑛 5) 𝐵𝑖𝑙𝑑(𝐴)𝑖𝑠𝑡 𝑈𝑛𝑡𝑒𝑟𝑟𝑎𝑢𝑚 𝑣𝑜𝑛 𝑊 𝑚 =ℝ𝑚 6) dim(𝐵𝑖𝑙𝑑 (𝐴) + dim(𝐾𝑒𝑟𝑛 (𝐴)) = 𝑛 (𝑆𝑝𝑎𝑙𝑡𝑒𝑛𝑧𝑎ℎ𝑙) 7) dim(𝐵𝑖𝑙𝑑 (𝐴)) = dim(𝐵𝑖𝑙𝑑(𝐴𝑇 )) (𝑅𝑎𝑛𝑔𝑣𝑜𝑛𝐴𝑥 = 𝑏)

 Kern(A)= {𝐴𝑥 = 0|𝑥𝜖 𝑉 }, Lösungsmenge von Ax=0 und ist n Unterraum von V Bzw F(x)=0 (Vektoren, die auf 0 abgebildet werden)  Dim(Kern(A))= n – r n m  Bild(A): {𝐴𝑥 = 𝑏|𝑥𝜖𝑉 so dass y=Ax, 𝑦𝜖𝑉 } n

Wertebereich, und ist Unterraum von V Bzw y=F(x)

 Dim(BildA)=Rang von Ax=b  Ax=0 => Dim(KernA)=0

Ax=b ist genau dann lösbar, wenn b senkrecht auf allen Lösungen des LGS 𝐴𝑇 𝑦 = 0 steht

ZUSAMMENSETZUNG VON LINEAREN ABBILDUNGEN

Es gilt:

 Matrizen sind immer lineare Abbildungen

𝐹(𝑏1 ) =

04 )} ) , ( −2

Kern einer Matrix (x,y,z) gaussen erlaubt =“Defbereich“



Jede lineare Abbildung kann man als Produkt mit einer Matrix darstellen

0

 RangA=RangA  Falls Kern nur aus Nullvektor-> invertierbar

0 Wähle linear unabhängige und erzeugende Spaltenvektoren von A → Pivotspalten nach Gauss besonders einfach

0 2 ( 0 −1 0 0

LINEARE ABBILDUNGEN

1 (2 − 𝑥) ∙ 0 =( 0) 𝑥 2 𝑥 0

0

T

04

) −2 2 Bild(A)=span{( −1 A=(

0

00 −1 2

n

 Dim(BildA)+Dim(KernA)=dim(V )=n

n

Zusammensetzung von linearen Abbildungen ist wieder linear

UMKEHRBARE ABBILDUNGEN, LINEARE SELBSTABBILDUN G 1) eine lineare Abbildung ist genau dann umkehrbar, wenn A regulär (det(A)≠ 0, 𝑖𝑛𝑣𝑒𝑟𝑡𝑖𝑒𝑟𝑏𝑎𝑟) ist.

2) ist 𝐹: 𝑥 → 𝑥′ = 𝐴𝑥 umkehrbar, so ist 𝐹 −1 linear. 𝐹 −1 wird durch die Matrix 𝐴−1 beschrieben. 𝐹 −1 : 𝑥′ → 𝑥 = 𝐴−1 𝑥′ 3) Ist 𝐹 umkehrbar, so gilt𝐹 −1 (𝐹) = 𝐹(𝐹 −1 ) = 𝐼𝑛 Rang(A)= Rang(A)

T

NORMIERTE VEKTORRÄUM E Eine Norm (=Länge) ist eine Vorschrift, die jedem Vektor eine reelle Zahl zuordnet. ‖𝑎‖≥ 0 ‖𝑎‖=0 1) wenn a=0 ‖𝛼𝑎‖=|𝛼|‖𝑎‖ 2) ‖𝑎 + 𝑏 ‖≤ ‖𝑎‖+ ‖𝑏‖ 3) (Dreiecksgleichung)

 

VOM SKALARPRODUKT INDUZIERTE NORM ||∙||

1 𝑃

||x||𝑃 =( (𝑥1 ) + (𝑥2 ) + … ) ||x||∞ = max{|𝑥1 |,…,|𝑥𝑛 |} ||𝛼x||∞ =|𝛼| ||x||∞ ||x||1 = |𝑥1 | + |𝑥2 | + ⋯ + |𝑥𝑛 | 𝑃

i)

die orthogonale Projektion eines Vektors x auf

ii)

(𝑥, 𝑦) ≤ (𝑥, 𝑥)(𝑦, 𝑦) Schwarzsche Ungleichung

Wichtige Normen in C 𝑏

1

||f||𝐿𝑃 = (∫𝑎 |𝑓(𝑥)|𝑃 𝑑𝑥)𝑃

(Betrag grösster Wert)

1≤ 𝑃 ≤ ∞

||f||𝐿∞ = max{|f(x)|; 𝑎 ≤ 𝑥 ≤ 𝑏 } (ableiten=0 setzen) Euklidsche Norm / L2-Norm: ||x||=√𝑥12 + 𝑥22 + ⋯

1 𝑐

∙ | |𝑥|| ≤ ||𝑥|| ≤ ||𝑥|| 𝑐

iii) iv)

den Vektor y≠0 durch den Vektor 2

(𝑦,𝑥)

(𝑦,𝑦)

𝑦.

||x||=√(𝑎, 𝑏) ||∙|| ist die Norm Stehen 2 Vektoren senkrecht aufeinander, also (x,y)=0, so gilt: (Parallelogrammregel) ||𝑣 + 𝑤 ||2 + ||𝑣 − 𝑤 ||2 = 2(||𝑣||2 + ||𝑤||2 )

||x||=√(𝑎, 𝑏)=Wurzel von der Norm Wichtige Skalarprodukte: (für Norm: ||x||=√< 𝒂, 𝒃 >) 

 

(𝑥, 𝑦) = 𝑥 𝑇 𝐷𝑥

(𝑥, 𝑦) = ∫𝑎 𝑓 (𝑡)𝑔(𝑡)𝑑𝑡 𝑏

𝑎 𝑏 (𝑥𝑥21) ∙ ( ) ∙ (𝑦𝑦12 ) 𝑐 𝑑

ORTHOGONALISIEREN Zwei Vektoren stehen senkrecht aufeinander, falls (x,y)=0= cosφ

Vorschrift, die zwei Vektoren (x,y) eine Zahl zuordnet.

Vektorraum V mit Skalarprodukt

(S1) ist linear im zweiten Faktor, d.h. es gilt: (Matrix immer!) i) (x,𝑦1 + 𝑦2 ) = (𝑥, 𝑦1 ) + (𝑥, 𝑦2 ) ii) (x,𝛼𝑦) = 𝛼(𝑥, 𝑦) mit 0 mult. geeignet (S2) ist symmetrisch; d.h es gilt: i) (x,y) = (y,x) (S3) ist positiv definiert, d.h es gilt: i) (x,x)≥ 0 ii) (x,x)=0 folgt x=0 Es gilt:  orthgonale Vektoren sind linear unabhängig

Orthogonale Projektion von x auf y:

(𝑦,𝑥)

(𝑦,𝑦)

𝑦 (Vektor)

SCHMIDTSCHES ORTHOGONALISIERUNGSVERFAHREN Gegeben seien Vektoren a, b, und c  Setze 𝑒1 =

1

||𝑎||

𝑎 (normiere)

 Finde senkrechten Hilfsvektor ℎ1 = 𝑏 − (𝑏, 𝑒1 )𝑒1

 Normiere ℎ1 => 𝑒2 =

1 ℎ ||ℎ1 || 1

 Finde ℎ2 = 𝑐 − (𝑐, 𝑒1 )𝑒1 − (𝑐, 𝑒2 )𝑒2 1

 Normiere ℎ𝑞 => 𝑒3 = ||ℎ || ℎ2 2

< 𝑥, 𝑦 > 𝑦 = () ∙ () = 𝑍𝑎ℎ𝑙 ∙ 𝑦 || || = normieren

 

Bei anderen Skalarprodukten:

𝑏

hat eigene Definition, bei (𝑥, ) = ∫𝑎 𝑓(𝑡)𝑔(𝑡)𝑑𝑡

nicht mit Vektoren rechnen! ||a||=√< 𝑎, 𝑎 >



KOORDINATENTRANSFORMATION

!!

TCA ist Übergangsmatrix von A nach C

1 TCA∙ ( 𝑖𝑛𝑣1𝑨)=( 𝑖𝑛 𝑪)

𝑣

Falls C= Standardbasis, A andere Basis => TCA= 𝑎1 = 𝑡 (𝑐1 ) + 𝑠(𝑐2 ) 𝑎2 = 𝑞 (𝑐1 ) + 𝑝(𝑐2 ) (Basisvektoren von A mit Standardbasis C schreiben) TAC = Inverse von TCA 𝐴−1 = [

𝑎 𝑐

1 𝑏 −1 𝑑 −𝑏 ] = det(𝐴) ∙ [ ] 𝑑 −𝑐 𝑎

Falls 2 kompliziertere Basen gegeben: TAB= TAC∙TCB

SKALARPRODUKT

Das Skalarprodukt…

Bei Standardskalarprodukt :



Der Vektorraum mit Skalarprodukt erfüllt folgendes:

Wichtige Normen in V (Lp-Normen) 𝑃

(𝑦,𝑥)

Projektion von x auf y ist der Vektor 𝑦 (𝑦,𝑦) (𝑥, 𝑦)2 ≤ (𝑥, 𝑥)(𝑦, 𝑦) schwarzsche Ungleichung

S ist Übergangsmatrix von B‘ nach B T ist Übergangsmatrix von B nach B‘

S=T-1

= dim ER λ =Anzahl Vektoren für ER = Anz. Freier Parameter

EIGENWERTPROBLEM EIGENWERT

EW

EW sind Nullstellen des Charakteristischen Polynoms 𝐝𝐞𝐭(𝐀 − 𝛌𝐈𝐧 ) = 𝟎

λ ist Eigenwert wenn gilt: Av = λv (nur Streckung von Eigenvektor)     

Nicht gaussen vor Berechnung der EW! (A − λIn ) darf gegausst werden es existiert mindestens 1 EW und höchstens n 1 𝜆

ist 𝜆 ein EW von A, so ist ein EW von A

-1

Spur einer diagonalisierbaren Matrix =Summe(EW)

Anz. Nullsteillen eines Eigenwerts im Char. Polynom (x − λ1 )1 ∙ (x − λ2 )3 =0 λ1 : AlgVF = 1 λ2 : AlgVF = 3 Ist eine Matrix A halbeifnach, so auch An

v ist Eigenvektor von A wenn gilt Av = λv (Nullvektor≠ EV) Setze Eigenwert in A − λIn ein. (𝐀 − 𝛌𝐈𝐧 )𝒙 = 𝟎 Gausse, bestimme x. (hier nur 1 freier Parameter) 𝑐 𝑥3 =∝ 𝑥2 = 𝑏 ∝ 𝑥1 = 𝑐 ∝ v=∝ ( 𝑏) 1 Bsp: 𝑥3 =∝

𝑥2 = 𝛽

𝑥1 =∝ −𝛽

Eigenraum von A zum Eigenwert 𝜆 : 1 −1 𝐸𝜆 = {𝛼 ( 0) + 𝛽 ( 1 ) |𝛼, 𝛽 ∈ ℝ} 0 1

GEOMETRISCHE VIELFACHHEIT

 ähnilche Matrizen haben gleiche Eigenwerte  A hat höchsten s n Eigenwerte  1≤ algebraische Vielfachheit ≤ n

 1≤ geom. Vielfachhiet ≤ alg. Vielfachheit (von 𝜆)  EV sind linear unabhängig

ORTHONORMALE EIGENBASIS

Vorgehen:  Schmidtsches Orthogonalisierungsverfahren auf Eigenvektoren des gleichen Eigenwerts anwenden (nicht von verschiedenen EW!!)  Normieren der verbleibenden EV  Resultat = orthonormale Eigenbasis

E

EIGENRAUM (UNTERRRAUM) ER

ZUSAMMENHÄNGE  jede quadrat. Matrix A hat min. 1 EW

A und B seien 2 beliebige quadratische Matrizen  Ist A diagonalisierbar, so auch 𝐴−1 , 𝐴𝑇 EINFACHHEIT Quadratische Matrix ist: Einfach: alg. VF= geom. VF=1 Halbeinfach: alg. VF=geom. VF für jeden EW  einfache Matrizen sind auch halbeinfach  zu jeder einfachen/halbeinfachen Matrix gibt es eine Eigenbasis  jede einfache/halbeinfache Matrix ist diagonalisierbar

Basis von Eigenvektoren einer Matrix A

ALGEBRAISCHE VIELFACHHEIT

EIGENVEKTOR

1≤ geometrische ≤ algebraische Vielfachheit

(EIGENBASIS) 𝛼−𝛽 v =( 𝛽 ) 𝛼

Falls Inverse gefragt ist-> transponieren

DIAGONALISIE RBARKEIT: Matrix A ist diagonalisierbar falls es eine reguläre Matrix T

gibt, so dass die Matrix 𝑫 = 𝑻−𝟏 𝑨𝑻 eine Diagonalmatrix ist. ↔ algV = geomV für alle EW

D: In der Diagonalen stehen Eigenwerte von A T: Spalten von T bilden Eigenbasis zu A Anwendung: Lineare Abbildung besonders einfach, wenn Matrix Diagonalgestalt hat. D ist dann neue Abbildungsmatrix. Folgende Aussagen sind äquivalent:  Matrix A ist diagonalisierbar  Matrix A besitzt eine Eigenbasis  Matrix A ist halbeinfach

EW-PROBLEM SYMMETRISCHER MATRIZEN A sei eine reelle Matrix. Es gilt:  T kann orhogonal gewählt werden  Alle EW sind reell  EV zu verschiedenen EW stehen senkrecht zueinander  A ist halbeinfach (alg Vf = geom. Vf) (immer diag.bar)  Es gibt eine orthonormale Eigenbasis zu A  A ist diagonalisierbar: D =𝑻𝑻 𝑨𝑻 (T ist orthogonal und somit gilt: 𝑇 −1 = 𝑇 𝑇 ) FOLGERUNGEN AUS DEM EW -PROBLEM BERECHNUNG VON 𝒚 = 𝑨𝒌 𝒙 , 𝑨𝒌

1) EW und EV bestimmen, T und D, sodass 𝐷 = 𝑇 −1 𝐴𝑇 (diagonalisieren) (Wenn A symmetrisch, einfacher, 𝐴𝑘 = 𝑇 𝐷𝑘 𝑇 𝑇 ) 2) 𝑤 = 𝐷 𝑘 𝑧 3) 𝑦 = 𝑇𝑤 4) 𝑦 = 𝐴𝑘 𝑥 = 𝑇 𝐷𝑘 𝑇 −1 𝑥 (𝐴𝑘 = 𝑇 𝐷𝑘 𝑇 −1) 5) 𝑧 = 𝑇 −1 𝑥, also 𝑇𝑧 = 𝑥nach z auflösen 6) 𝐴𝑘 𝑥 = 𝑇 𝐷𝑘 𝑧 berechnen

𝐴2 = 𝐴 ∙ 𝐴

𝐴−1 = [

𝑎 𝑐

𝑑 −𝑏 1 𝑏 −1 ] ] = det(𝐴) ∙ [ −𝑐 𝑎 𝑑

Ist eine Matrix A halbeifnach, so auch An

ANWENDUNGEN ZUM EW -PROBLEM QUADRATISCHE FORMEN

oder einfach Matrizen multiplizieren... Trick: wenn Char. Polynom gilt: BERECHNUNG VON 𝒆𝑨 , MATRIXEXPONENTIALFUNKTION Vorgehen:

dann = Matrix mit nur 0 en

q(a)= 𝑥 𝑇 𝐴𝑥 heisst quadratische Form Beispiel:𝑞 (𝑥) =

𝑎𝑥12

+ 𝑏𝑥1 𝑥2 +

𝑐𝑥22

𝑎 𝑏/2 A =( ) 𝑏/2 𝑐

Ziel: herausfinden um welche Art Kegelschnitt es sich bei Q handelt, indem wir 𝑥 𝑇 𝐴𝑥 + 𝑎𝑇 𝑥 + 𝑏 durch Hauptachsentransformation und Translation in Normalform bringen.

 bestimme EW, EV, T und D  𝒆𝑨 = 𝑻 𝒆𝑫 𝑻−𝟏

 

Translation 𝑧 = 𝑦 + 𝑘 k ist konstanter Vektor Ist 𝑞𝐴 (𝑥) von der Form so nimmt ist k = . So verschwindet der quadratich ergänzte Term und Q kann in der Normalform beschrieben werden.

Normalform: in dieser Form gibt es keine gemischten Terme mehr. zugehörige Koordinatentransformation: 𝒛 = 𝑦 + 𝑐 = 𝑻𝑻 𝒙 + 𝒄

(sollte Vektor ergeben)

LOKALE EXTREMA

 𝑒 𝐷 = 𝑑𝑖𝑎𝑔(𝑒 𝜆1 , … , 𝑒 𝜆𝑛 )

𝑒 𝐴 ∙ 𝑒 𝐵 = 𝑒 𝐴+𝐵 ⟺ 𝐴𝐵 = 𝐵𝐴 Rechenregeln:

MATRIXNORMEN 2-Norm ||A||2

HAUPTACHSENTRANSFOR MATION 1) finde Eigenwerte und Eigenvektoren 2) A diagonalisieren ⟶ 𝑇, 𝐷 finden 3) T orthogonalisieren D = 𝑇 𝑇 𝐴𝑇 (wenn nötig, sonst normieren) 4) 𝑦 = 𝑇 𝑇 𝑥 definieren ⟶ x=Ty (weil T orthogonal) 5) in quadratische Form einsetzen 𝒒𝑨 (𝒙) = 𝑥 𝑇 𝐴𝑥 = 𝒚𝑻 𝑫𝒚 diese Form heisst Normalform Ist Aufgabe zusammengesetzt Bsp:

A positiv definit: alle EW von A>0 A negativ definit: alle EW von A 0 *

𝑞𝐴 (𝑥) < 0 *

𝑞𝐴 (𝑥) + 𝑢𝑛𝑑 −

AUSGLEICHSRECHNUNG



Methode um überbestimmte Gleichungen zu lösen



METHODE DER KLEINSTEN QUADRATE Fehlergleichung: 𝑨𝒙 − 𝒄 = 𝒓



r: Residuenvektor, Messfehler (steht senkrecht auf Bild(A))

Kritische Punkte:  



𝜕𝑓

𝜕𝑥

(𝑥, 𝑦) =

𝜕𝑓

𝜕𝑦

(𝑥, 𝑦) = 0

geg: Funktion Gleichungen voneinander subtrahieren 𝜕𝑓

𝜕𝑥

(𝑥, 𝑦) −

𝜕𝑓

𝜕𝑦

(𝑥, 𝑦), so Kriterium bestimmen

Normalengleichung: 𝑨𝑻𝑨𝒙 = 𝑨𝑻 𝒄

1. ORDNUNG 𝑦1 𝑐 = ( 𝑦2 ) 𝑦3

Hurwitz Kriterium:  

𝑨𝑻 𝑨𝒙 = 𝑨𝑻 𝒄 nach x auflösen (a), b ,c einsetzen in 𝑦 = (𝑎𝑥 2 ) + 𝑏𝑥 + 𝑐

||𝑨𝒙 − 𝒄||𝟐 = ||𝒓||𝟐 𝑓𝑥𝑥 𝑓𝑥𝑦 ) = Hessesche Matrix 𝑓𝑦𝑥 𝑓𝑦𝑦

DIFFERENTIALGLEI CHUNG EN

Finde Matrix A, c

In eine der obigen Gl. einsetzen, Punkte (x,y) bestimmen

𝐻𝑓 (𝑎) = (

𝑅 Falls A= nxn muss unterste Zeile von 𝑅 = ( 0 ) muss 0 in Null sein. Finde t, setze t in Givensrotation und 𝑅0 ein 𝑑 𝑑 = 𝑄𝑇 𝑐 berechne 𝑑 = ( 0 ) 0 𝑅0 ∙ 𝑥 = 𝑑0 (d ohne unterste Zeile) finde x (vektor)

||r||2 = ||𝑑||2

Bsp: Geg:𝑦 = 𝑓(𝑥) = 𝑎𝑥 2 + 𝑏𝑥 + 𝑐 



𝐴 = 𝑄𝑅 𝑄𝑇 𝐴 = 𝑅

→ √𝑟12 + ⋯ + 𝑟𝑛2 minimal

Sind die Spalten der Koeffizientenmatrix A linear unabhängig, so besitzt die Normalgleichung eine eindeutige Lösung. Eine lineare Ausgleichsaufgabe hat genau dann eindeutig, wenn Rang(A)=n Minimaler Residuenvektor ist immer eindeutig QR-ZERLEGUNG Genauer als Methode der kleinsten Quadrate

Geg: A und c (von 𝐴𝑥 − 𝑐 = 𝑟 ) und Q= orthogonal 

1 0 Bsp: ( 0 𝑐𝑜𝑠𝑡 0 −𝑠𝑖𝑛𝑡 (orthogonal)

0 𝑠𝑖𝑛𝑡 ) = Givensrotation =𝑄𝑇 = 𝑄 𝑐𝑜𝑠𝑡 𝑅 𝑅 = ( 0) 0

Vorgehen :

ANFANGSWERTPROBLEM: ANFNAGSWERTPROBLEM

IRGENDETWAS

SYSTEME 2. ORDNUN G

ÄHNLICHE MATRIZEN Zwei quadratische Matrizen sind ähnlich falls gilt: B=T-1AT

RÜCKFÜHRUNG AUF EINE DIFFERENTIALGLEICHUNG ERSTER ORDNUNG



A und B haben dieselben Eigenwerte.

 

Haben gleiche Determinante A und B sind Darstellungsmatrizen derselben Funktion



Sind A und B ähnlich und sei x ein Eigenvektor von A, so ist y= T-1x ein EV von B (zum selben EW wie bei A)

GEOMETRISCHE IN TERPR ETATION VON ABBILDUNGEN

INHOMOGENE LINEARE GLEICHUNGSSYSTEME

GEOMETRISCHE INTERPRETATION VON MATRIZEN

f)

g)

h)

i)

BERECHNUNG EINER ABBILDUNGSMATRIX...


Similar Free PDFs