Skript-Mathematik 4 Mathematik 4 r BechloMechetroniker PDF

Title Skript-Mathematik 4 Mathematik 4 r BechloMechetroniker
Course Mathe 4
Institution Technische Universität Darmstadt
Pages 124
File Size 2.5 MB
File Type PDF
Total Downloads 137
Total Views 629

Summary

Download Skript-Mathematik 4 Mathematik 4 r BechloMechetroniker PDF


Description

Mathematik IV für Elektrotechnik Mathematik III für Informatik Vorlesungsskript Prof. Dr. Stefan Ulbrich Fachbereich Mathematik Technische Universität Darmstadt Sommersemester 2019

Stand: 04/2019

Inhaltsverzeichnis 1 Interpolation 1.1 Polynominterpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.1 Interpolationsformel von Lagrange . . . . . . . . . . . . . . . . . . . . . . . . 1.1.2 Newtonsche Interpolationsformel . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.3 Fehlerabschätzungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.4 Anwendungen der Polynominterpolation . . . . . . . . . . . . . . . . . . . . 1.2 Spline-Interpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.1 Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.2 Interpolation mit linearen Splines . . . . . . . . . . . . . . . . . . . . . . . . 1.2.3 Interpolation mit kubischen Splines . . . . . . . . . . . . . . . . . . . . . . . 2 Numerische Integration 2.1 Newton-Cotes-Quadratur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.1 Geschlossene Newton-Cotes-Quadratur . . . . . . . . . . . . . . . . . . . . . 2.1.2 Offene Newton-Cotes-Quadratur . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Die summierten Newton-Cotes-Formeln . . . . . . . . . . . . . . . . . . . . . . . . . 3 Numerische Behandlung von Anfangswertproblemen gewöhnlicher Differentialgleichungen 3.1 Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.1 Grundkonzept numerischer Verfahren . . . . . . . . . . . . . . . . . . . . . . 3.1.2 Einige wichtige Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.3 Konvergenz und Konsistenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.4 Ein Konvergenzsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.5 Explizite Runge-Kutta-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Steife Differentialgleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.1 Stabilitätsgebiete einiger Verfahren . . . . . . . . . . . . . . . . . . . . . . . 4 Lineare Gleichungssysteme 4.1 Problemstellung und Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Das Gaußsche Eliminationsverfahren, Dreieckszerlegung einer Matrix . . . . . . . 4.2.1 Lösung gestaffelter Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . 4.2.2 Das Gaußsche Eliminationsverfahren . . . . . . . . . . . . . . . . . . . . . . 4.2.3 Pivotstrategie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.4 Praktische Implementierung des Gauß-Verfahrens – LR-Zerlegung . . . . 4.2.5 Matrixdarstellung der Eliminationsschritte . . . . . . . . . . . . . . . . . . . 4.2.6 Matrizenklassen, die keine Pivotsuche erfordern . . . . . . . . . . . . . . .

3 4 4 6 8 10 10 11 11 12 15 15 15 17 18

21 21 22 22 25 26 27 28 32 35 35 36 36 37 39 40 42 43 iii

4.3 Das Cholesky-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4 Fehlerabschätzungen und Rundungsfehlereinfluss . . . . . . . . . . . . . . . . . . . 4.4.1 Fehlerabschätzungen für gestörte Gleichungssysteme . . . . . . . . . . . . 4.4.2 Rundungsfehleranalyse für das Gauß-Verfahren . . . . . . . . . . . . . . . . 5 Nichtlineare Gleichungssysteme

51

5.1 Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Das Newton-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.1 Herleitung des Verfahrens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.2 Superlineare und quadratische lokale Konvergenz des Newton-Verfahrens 5.2.3 Globalisierung des Newton-Verfahrens . . . . . . . . . . . . . . . . . . . . . . 6 Verfahren zur Eigenwert- und Eigenvektorberechnung

51 52 52 53 54 57

6.1 Eigenwertprobleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1.1 Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1.3 Grundkonzepte numerischer Verfahren . . . . . . . . . . . . . . . . . . . . . 6.1.4 Störungstheorie für Eigenwertprobleme . . . . . . . . . . . . . . . . . . . . . 6.2 Die Vektoriteration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2.1 Definition und Eigenschaften der Vektoriteration . . . . . . . . . . . . . . . 6.2.2 Die Vektoriterationen nach v. Mises und Wielandt . . . . . . . . . . . . . . . 6.3 Das QR-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3.1 Grundlegende Eigenschaften des QR-Verfahrens . . . . . . . . . . . . . . . . 6.3.2 Konvergenz des QR-Verfahrens . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3.3 Shift-Techniken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3.4 Berechnung einer QR-Zerlegung (Ergänzung für Interessierte) . . . . . . . 7 Grundbegriffe der Statistik und Wahrscheinlichkeitstheorie

57 57 58 59 60 61 61 63 64 64 64 66 66 71

7.1 Messreihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2 Lage- und Streumaßzahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2.1 Lagemaßzahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2.2 Streuungsmaße . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2.3 Zweidimensionale Messreihen . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2.4 Regressionsgerade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3 Zufallsexperimente und Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . . . 7.3.1 Zufallsexperimente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3.2 Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3.3 Elementare Formeln der Kombinatorik . . . . . . . . . . . . . . . . . . . . . 7.4 Bedingte Wahrscheinlichkeit, Unabhängigkeit . . . . . . . . . . . . . . . . . . . . . . 7.4.1 Bedingte Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.4.2 Unabhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.5 Zufallsvariablen und Verteilungsfunktion . . . . . . . . . . . . . . . . . . . . . . . . . 7.5.1 Beispiele für diskrete Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . 7.5.2 Beispiele für stetige Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . iv

44 46 46 48

71 73 73 74 75 76 78 78 79 81 82 82 84 84 86 87

Inhaltsverzeichnis

7.6 Erwartungswert und Varianz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.6.1 Rechenregeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.7 Gesetz der großen Zahlen, zentraler Grenzwertsatz . . . . . . . . . . . . . . . . . . 7.7.1 Das schwache Gesetz der großen Zahlen . . . . . . . . . . . . . . . . . . . . 7.7.2 Zentraler Grenzwertsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.8 Testverteilungen und Quantilapproximationen . . . . . . . . . . . . . . . . . . . . . 7.8.1 Wichtige Anwendungsbeispiele . . . . . . . . . . . . . . . . . . . . . . . . . . 8 Schätzverfahren und Konfidenzintervalle

89 90 91 91 92 94 96 97

8.1 Grundlagen zu Schätzverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 8.2 Maximum-Likelihood-Schätzer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100 8.3 Konfidenzintervalle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 8.3.1 Konstruktion von Konfidenzintervallen . . . . . . . . . . . . . . . . . . . . . 101 9 Tests bei Normalverteilungsannahmen

105

9.1 Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 9.2 Wichtige Test bei Normalverteilungsannahme . . . . . . . . . . . . . . . . . . . . . . 106 9.3 Verteilungstests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 10 Robuste Statistik

111

10.1 Median . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 10.2 M-Schätzer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 11 Multivariate Verteilungen und Summen von Zufallsvariablen

115

11.1 Grundlegende Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 11.2 Verteilung der Summe von Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . 117

Inhaltsverzeichnis

v

Numerische Mathematik Viele Problemstellungen aus den Ingenieur- und Naturwissenschaften lassen sich durch mathematische Modelle beschreiben, in denen häufig lineare oder nichtlineare Gleichungssysteme, Integrale, Eigenwertprobleme, gewöhnliche oder partielle Differentialgleichungen auftreten. In nahezu allen praxisrelevanten Fällen lässt das mathematische Modell keine analytische Lösung zu. Vielmehr muss die Lösung durch geeignete Verfahren auf einem Rechner näherungsweise bestimmt werden. Hierbei ist es wichtig, dass das verwendete Verfahren robust, genau und möglichst schnell ist. Die Entwicklung derartiger Verfahren ist Gegenstand der Numerischen Mathematik, einem inzwischen sehr bedeutenden Gebiet der Angewandten Mathematik. Die Numerische Mathematik entwickelt effiziente rechnergestützte Verfahren zur Lösung mathematischer Problemstellungen, unter anderem der oben genannten. Die Vorlesung gibt eine Einführung in die numerische Behandlung der folgenden Problemstellungen • Interpolation • Numerische Integration • Lineare Gleichungssysteme • Nichtlineare Gleichungssysteme • Eigenwertprobleme • Anfangswertprobleme für gewöhnliche Differentialgleichungen • Partielle Differentialgleichungen (gegebenenfalls ganz kurz)

1

1 Interpolation Häufig liegen von einem funktionalen Zusammenhang y = f (x), f : [a, b] → R nur eine begrenzte Zahl von Werten yi = f (x i ), i = 0, . . . , n, vor, man möchte jedoch f (x) für beliebiges x ∈ [a, b] näherungsweise berechnen, plotten, etc.. Dies führt auf das Interpolationsproblem: Suche eine einfache Ersatzfunktion Φ(x) mit Φ(x i ) = yi ,

i = 0, . . . , n.

Wunsch: Der Fehler | f (x) − Φ(x)| sollte auf [a, b] klein sein. Beispiele: 1. Die Funktion f (x) ist aufwändig zu berechnen (z. B. sin(x), exp(x), ln(x), Γ (x), etc.) und es sind nur die Werte yi = f (x i ), i = 0, . . . , n, bekannt. Gesucht: Genaue Approximation Φ(x) für f (x), oder Φ′ (x) für f ′ (x). 2. Ein Experiment (oder eine numerische Berechnung) beschreibt einen unbekannten funktionalen Zusammenhang y = f (x) und liefert zu Eingangsparametern x i die Werte yi . Gesucht: Gutes Modell Φ(x) für das unbekannte f (x). 3. Ein digitales Audiosignal (CD, MP3-Player, DVD, . . . ) liefert zum Zeitpunkt t i , i = 0, . . . , n, die Amplitude yi . Gesucht: Wie sieht das zugehörige analoge Audiosignal y(t) aus? 4. Ein digitales Audiosignal (t i , yi ), i = 0, . . . , n, zur Abtastrate 44.1 kHz (CD) soll umgesampelt werden auf die Abtastrate 48 kHz (DAT, DVD-Video). Gesucht: (˜t j , y(t˜j )) für die 48 kHz-Abtastzeiten t˜j . 5. 2D-Beispiel: Durch Datenpunkte (x i , yi , zi ) soll eine glatte Fläche ( x, y, z ( x, y)) gelegt werden (CAD, Computergrafik, Laserscanner, etc.). Formale Aufgabenstellung Gegeben sei eine Ansatzfunktion Φ(x; a0 , . . . , an ), x ∈ R, die von Parametern a0 , . . . , an ∈ R abhängt. In diesem Kapitel beschäftigen wir uns mit der folgenden Interpolationsaufgabe: Zu gegebenen Paaren (x i , yi ),

i = 0, . . . , n

mit x i , yi ∈ R,

x i 6= x j für i 6= j,

sollen die Parameter a0 , . . . , an so bestimmt werden, dass die Interpolationsbedingungen Φ(x i ; a0 , . . . , an ) = yi ,

i = 0, . . . , n

gelten. Die Paare (x i , yi ) werden als Stützpunkte bezeichnet. 3

1.1 Polynominterpolation Sehr verbreitet ist die Polynominterpolation. Hier verwendet man als Ansatzfunktion Polynome vom Grad ≤ n, also pn (x) = Φ(x; a0 , . . . , an ) = a0 + a1 x + · · · + an x n . Die Interpolationsaufgabe lautet dann: Finde ein Polynom pn (x) vom Grad ≤ n, das die Interpolationsbedingungen erfüllt pn (x i ) = yi ,

(1.1)

i = 0, . . . , n.

Naiver Lösungsansatz Ein naheliegender, aber in der Praxis untauglicher Ansatz ist folgender: (1.1) liefert die n + 1 linearen Gleichungen a0 + x i a1 + x i2 a2 + · · · + xinan = yi ,

i = 0, . . . , n,

für die n + 1 Koeffizienten a0 , . . . , an . In Matrixform lautet das Gleichungssystem 

x 02 x 12

1 x0 ···  1 x1 ···  . . ..  .. .. . 1 x n x n2 · · ·

x0n x1n





   ...    xnn

a0 a1 a2 .. . an





    =    

y0 y1 y2 .. .

   .  

(1.2)

yn

Nachteile des Verfahrens • Das Auflösen des Gleichungssystems (1.2) ist mit O(n3 ) elementaren Rechenoperationen im Vergleich zu den nachfolgenden O(n2 )-Verfahren sehr teuer. • Die Koeffizientenmatrix in (1.2) (Vandermonde-Matrix) ist zwar invertierbar, aber für größere n extrem schlecht konditioniert. Daher kann das Gleichungssystem (1.2) auf einem Computer nicht genau gelöst werden, da Rundungsfehler wegen der schlechten Konditionszahl dramatisch verstärkt werden (siehe Kapitel 4). [O(g(n)) bezeichnet im Folgenden für eine Funktion g : N → [0, ∞[ die Menge aller Funktionen, die asymptotisch nicht schneller wachsen als g. Also: O(g(n)) := { f : N → [0, ∞[ : ∃n0 ∈ N, c > 0, so dass f (n) ≤ c g(n) für alle n ≥ n0 }. O(n3 ) bezeichnet damit einen Aufwand der (für große n) ungefähr wie n3 wächst, wobei multiplikative Konstanten keine Rolle spielen.]

1.1.1 Interpolationsformel von Lagrange Als numerisch stabile und effiziente Lösung der Interpolationsaufgabe bietet sich folgendes Vorgehen an: 4

1 Interpolation

1

L0,5 L3,5

0.5

0

−0.5

−1

0

0.2

0.4

0.6

0.8

1

Abbildung 1.1: L0,5 und L3,5 für äquidistante Stützstellen auf [0, 1]. Lagrangesches Interpolationspolynom pn (x) =

n X

yk L k,n (x)

mit

L k,n (x) =

n Y x − xj j=0 j6=k

k=0

xk − x j

.

(1.3)

Die Lagrange-Polynome L k,n (x) sind gerade so gewählt, dass gilt L k,n (x i ) =

¨ 1 0

falls k = i, sonst.

=: δki ,

wobei δki das Kronecker-Symbol ist. Abbildung 1.1 zeigt Beispiele hierzu. Das Polynom pn in (1.3) erfüllt die Interpolationsbedingungen (1.1), denn pn (x i ) =

n X k=0

yk L k,n (x i ) =

n X

yk δki = yi .

k=0

Tatsächlich ist dies die einzige Lösung der Interpolationsaufgabe: Satz 1.1.1. Es gibt genau ein Polynom p(x) vom Grad ≤ n, das die Interpolationsbedingungen (1.1) erfüllt, nämlich pn (x). Beweis. Das Polynom (1.3) hat Grad ≤ n und erfüllt (1.1). Gäbe es ein weiteres Polynom p˜n (x) mit Grad ≤ n, das (1.1) erfüllt, so wäre pn (x) − p˜n (x) ein Polynom vom Grad ≤ n mit n + 1 verschiedenen Nullstellen x 0 , . . . , x n , muss also identisch 0 sein. Bemerkung. (1.3) zeigt, dass pn linear von yk abhängt. Die Darstellung (1.3) von Lagrange ist für theoretische Zwecke sehr nützlich und wird auch in der Praxis oft angewendet. 1.1 Polynominterpolation

5

sin(πx) − p5 (x)

p5 (x) sin(πx)

1

0.02

0.5 0

0 −0.5

−0.02 −1 0

0.5

1

1.5

2

0

0.5

1

1.5

2

Abbildung 1.2: Links: sin(πx) und p5 (x), Rechts: Fehler sin(πx) − p5 (x) (man beachte die unterschiedlichen Maßstäbe). Vorteile • Der Rechenaufwand beträgt: O(n2 ) für die Koeffizientenberechnung (Nenner in (1.3)) und O(n) für die Auswertung von pn (x). • Intuitive, bequeme Darstellung. Beispiel 1.1.2. Abbildung 1.2 zeigt den Polynominterpolanten von f (x) = sin(πx) auf [0, 2] für , i = 0, . . . , n. n = 5 und äquidistante Stützstellen x i = 2i 5 In der Praxis, insbesondere wenn die effiziente Hinzunahme weiterer Stützstellen möglich sein soll, ist die folgende Newtonsche Interpolationsformel angenehmer.

1.1.2 Newtonsche Interpolationsformel Wir wählen als Ansatz die Newtonsche Darstellung pn (x) = γ0 + γ1 (x − x 0 ) + γ2 (x − x 0 )( x − x 1 ) + · · · + γn ( x − x 0 )( x − x 1 ) · · · ( x − x n−1 ), mit Parametern γ0 , . . . , γn . Einsetzen in (1.1) liefert nun pn (x 0 ) = γ0 = y0 y1 − y0 pn (x 1 ) = γ0 + γ1 ( x 1 − x 0 ) = y1 =⇒ γ1 = x1 − x0 pn (x 2 ) = γ0 + γ1 ( x 2 − x 0 ) + γ2 ( x 2 − x 0 )( x 2 − x 1 ) = y2 =⇒ γ2 = .. .

y2 − y0 y −y − x11 −x00 x 2 −x 0

x2 − x1

=

y2 − y1 x 2 −x 1



y1 − y0 x 1 −x 0

x2 − x0

Man bezeichnet f[x 0 ,...,x i ] := γi als die i-te dividierte Differenz zu den Stützstellen x 0 , . . . , x i , wobei f[x 0 ] = γ0 = y0 . 6

1 Interpolation

Allgemein berechnen sich die dividierten Differenzen zu den Stützstellen x j , . . . , x j+k über die Rekursion j = 0, . . . , n : k = 1, . . . , n : j = 0, . . . , n − k :

f[x j ] = y j f[x j ,...,x j+k ] =

f[x j+1 ,...,x j+k ] − f[x j ,..., x j+k−1 ] . x j+k − x j

(1.4)

Man erhält: Newtonsches Interpolationspolynom

pn (x) = γ0 +

n X i=1

γi (x − x 0 ) · · · (x − x i−1 ),

γi = f[x 0 ,...,x i ]

(1.5)

mit den dividierten Differenzen f[x 0 ,...,x i ] aus (1.4). Begründung. Für n = 0 ist die Darstellung klar. Sind p1,...,i+1 und p0,...,i die Interpolanten in x 1 , . . . , x i+1 bzw. x 0 , . . . , x i vom Grad ≤ i, dann gilt pi+1 (x) =

(x − x 0 )p1,...,i+1 (x ) + (x i+1 − x )p0,...,i ( x )

x i+1 − x 0 f[x 1 ,...,x i+1 ] − f[x 0 ,...,x i ] ( x − x 0 ) · · · ( x − x i ) + Polynom vom Grad i . = | {z } x i+1 − x 0 :=qi (x )

Da der erste Summand in x 0 , . . . , x i verschwindet, gilt qi (x) = pi (x) wegen (1.1). Vergleich mit (1.5) liefert (1.4). Wir erhalten aus (1.4) folgende Vorschrift zur Berechnung der Koeffizienten γi = f[x 0 ,...,x i ] : Berechnung der dividierten Differenzen: Setze f[x j ] = y j , j = 0, . . . , n. Berechne für k = 1, . . . , n und j = 0, . . . , n − k : f[x j ,...,x j+k ] =

f[x j+1 ,...,x j+k ] − f[x j ,...,x j+k−1 ] . x j+k − x j

Wir erhalten also das Schema x0

f[x 0 ] = y0 ց

x1

ր y1ց

x2 .. . 1.1 Polynominterpolation

f[x 1 ] =

f[x 2 ] = y2 ր

f[x 0 , x 1 ] ց ր f[x 1 , x 2 ] ց

f[x 0 ,x 1 , x 2 ]

7

Vorteile • Der Rechenaufwand beträgt: Berechnung der dividierten Differenzen: O(n2 ) Auswertung von pn (x): O(n) • Hinzunahme einer neuen Stützstelle erfordert nur die Berechnung von n zusätzlichen dividierten Differenzen. (Die Reihenfolge der Stützstellen ist egal, so dass die neue Stützstelle unten an das Schema angefügt werden kann.)

1.1.3 Fehlerabschätzungen Nimmt man an, dass die Stützwerte von einer Funktion f : [a, b] → R kommen, also yi = f (x i ),

i = 0, . . . , n,

dann ergibt sich die Frage, wie gut das Interpolationspolynom pn auf [a, b] mit f übereinstimmt. Es gilt der folgende Satz: Satz 1.1.3. Sei f (n + 1)-mal stetig differenzierbar, kurz f ∈ C n+1 ([a, b ]). Seien ...


Similar Free PDFs