Appunti su funzioni differenziabili, derivabili e teorema del gradiente - Corso di Analisi Matematica 1 a.a. 2012/2013 PDF

Title Appunti su funzioni differenziabili, derivabili e teorema del gradiente - Corso di Analisi Matematica 1 a.a. 2012/2013
Course Analisi Matematica 1
Institution Università Politecnica delle Marche
Pages 7
File Size 149.8 KB
File Type PDF
Total Downloads 91
Total Views 133

Summary

Appunti su funzioni differenziabili, derivabili e teorema del gradiente - Corso di Analisi Matematica 1 a.a. 2012/2013...


Description

Funzioni Differenziabili, Derivabili e Teorema del Gradiente Flaviano Battelli 6 ottobre 2013 Sia Ω ⊂ Rn , n ≥ 1 un sottoinsieme di Rn e x¯ ∈ Ω ∩ Ω′ un punto di Ω che sia anche di accumulazione. Una funzione f : Ω → Rm , m ≥ 1 si dice differenziabile in x¯ se esiste un’applicazione lineare L : Rn → Rm tale che f (x) − f (¯ x) − L(x − x¯) = o(kx − x¯k) ossia lim

x→¯ x

per x → x¯

f (x) − f (¯ x) − L(x − x¯) = 0. kx − x¯k

Sia v ∈ Rn un vettore non nullo e supponiamo che x¯ sia un punto di accumulazione anche di Ω ∩ {x = x¯ + tv | t ∈ R} (ossia che la retta uscente da x¯ con direzione v contenga infiniti punti di Ω vicini a x¯). In questo caso diremo derivata di f in x¯ nella direzione di v il vettore di Rm (se esiste): Dv f (¯ x) = lim

t→0

f (¯ x + tv) − f (¯ x) . t

Osserviamo che, se c 6= 0 si ha (s = tc): Dcv f (¯ x) = lim t→0

f (¯ x + sv) − f (¯ x) f (¯ x + tcv) − f (¯ x) = lim c = cDv f (¯ x) s→0 t s

Per questo motivo talvolta si preferisce definire le derivate direzionali utilizzando i versori (ossia i versori di norma unitaria) invece che i vettori non nulli. ◦ Dalla uguaglianza precedente segue subito D−v f (¯ x) = −Dv f (¯ x). Se x¯ ∈ Ω `e un punto interno ad Ω e r > 0 `e tale che B(¯ x, r) := {x | kx − x¯k < r} ⊂ Ω `e 1

possibile calcolare f (¯ x + tv) per ogni versore v (o vettore v non nullo) purch´e r ) e quindi si pu`o parlare di derivata direzionale in ogni |t| < r (o |t| < kvk direzione. In generale non sar`a cos`ı se x¯ non `e un punto interno di Ω. Ad esempio se in x¯ ∈ ∂Ω esiste un (iper-)piano tangente in generale potremo parlare di derivate direzionali solo per i vettori di un semispazio, se invece x¯ ∈ ∂Ω `e un punto angoloso se ne potr` a parlare solo per vettori che stanno in un cono, se, infine, il punto `e una cuspide si potr` a parlare di derivata diren zionale al pi` u per vettori di un sottospazio di R di codimensione maggiore di zero. Supponiamo che f : Ω → Rm sia differenziabile in x¯ e sia v un versore per il quale si possa parlare di derivata Dv f (¯ x). Si ha: f (¯ x + tv) − f (¯ x) L(tv) + o(ktv k) = lim Dv f (¯ x) = lim t→0 t→0 t t tL(v) + o(|t|) = lim L(v) + o(1) = Lv. = lim t→0 t→0 t

(1)

In conclusione le funzioni differenziabili sono derivabili in ogni direzione per la quale si possa parlare di derivata direzionale e vale Dv f (¯ x) = Lv. Dato che Dv f (¯ x) `e un limite, se esiste `e unico. Quindi anche il valore Lv sar` a univocamente determinato, purch´e la retta uscente da x¯ con direzione v contenga infiniti punti di Ω vicini a x¯. Se questa propriet` a `e vera per una base n B := {v1 , . . . , vn } di R i valori di L sui vettori della base B sono univoca◦ mente determinati e quindi L `e unica. Questo accade se x¯ ∈Ω, ma talvolta anche se x¯ `e un punto di frontiera, per esempio se esiste un iperpiano tangente, ma anche se x¯ `e un punto angoloso purch´e ci sia un cono solido che entra in Ω. Nel resto di queste note supporremo che si possa parlare di derivate direzionali di f in x¯ nelle direzioni v1 , . . . , vn dove {v1 , . . . , vn } `e una base di Rn . Come gi`a detto questo avviene in tutti in punti interni di Ω ed anche in alcuni punti di frontiera. In generale avviene se vale la condizione seguente: C) Esistono una baseP B = {v1 , . . . , vn } e r > 0 tale che l’insieme C := {x ∈ Rn | x = x¯ + nj=1 tj vj , 0 ≤ tj < r} `e contenuto in Ω.

In queste condizioni, se f `e differenziabile in x¯, L `e univocamente determinata e prende il nome di differenziale di f in x¯ e si scrive L := df (¯ x). Avremo quindi: f (x) − f (¯ x) − df (¯ x)(x − x¯) = o(kx − x¯k) 2

per x → x¯

Pm fi (x)wi . Sia B ′ = {w1 , . . . , wm } una base di Rm . Possiamo scrivere f (x) = i=1 Le funzioni fj (x) so dicono componenti di f (x) rispetto alla base B ′ . Dato che i limiti si calcolano componente per componente, dalla (1) si ha: df (¯ x)vj = Dvj f (¯ x) =

m X

Dvj fi (x)wi

(2)

i=1

quindi la matrice di df (¯ x) rispetto alle basi B e B ′ di Rn ed Rm (risp.) `e:   ′ (3) x)) = Dvj fi (x) i=1,...,m . MBB (df (¯ j=1,...,n ′

x)) si dice matrice Jadove i `e l’indice di riga e j quello di colonna. MBB (df (¯ cobiana di f relativamente alle basi B e B ′ e verr`a indicata pi` u semplicemente con Jf (¯ x, B, B ′ ). Pn In particolare se v = j=1 cj vj ∈ C si ha: n X

Dv f (¯ x) = df (¯ x)v = df (¯ x) " n # m X X = cj Dvj fi (x) wi i=1

c j vj

j=1

!

=

n X

cj df (¯ x)vj

j=1

(4)

j=1

ossia le componenti di df (¯ x)v rispetto alla base B ′ sono gli elementi del vettore     c1 c1        c2   c2  Dvj fi (x)  .  = Jf (¯ x, B, B ′ )  .  . (5)  ..   ..  cn

Inoltre Dv f (¯ x) = df (¯ x) ossia

P

n j=1 cj vj

cn



=

x) = DPnj=1 cj vj f (¯

Pn

n X

x)vj j=1 cj df (¯

=

Pn

x) j=1 cj Dvj f (¯

cj Dvj f (¯ x).

j=1

In altre parole se f `e differenziabile in x¯ la derivata direzionale `e lineare nelle direzioni. Si osservi che anche se v1 , . . . , vn sono versori non `e detto che 3

Pn

e comodo definire le derivate direzionali anche per j=1 cj vj lo sia, per questo ` i vettori 6= 0. Se B = E = {e1 , . . . , en } e B ′ = E ′ = {e1′ , . . . , e′m } sono le basi canoniche di Rn ed Rm parleremo pi` u semplicemente di matrice Jacobiana e scriveremo Jf (¯ x) invece di Jf (¯ x, E, E ′ ). Se B = E, le derivate direzionali Dej fi (x) si dicono derivate parziali e si scrive: Dej fi (x) =

∂fi (¯ x). ∂xj

Il motivo di questa notazione risiede nel fatto seguente. Identificando x con il vettore (x1 , . . . , xn ) delle sue componenti rispetto alla base E la derivata ∂fi (¯ x) si ottiene considerando, per ogni ℓ 6= j, xℓ = x¯ℓ e calcolando la derivata ∂xj della funzione della sola variabile xj : f (¯ x1 , . . . , x¯j−1 , xj , x¯j+1 , x¯n ) in xj = x¯j . Se m = 1, ossia f : Ω → R si ha:   Jf (¯ x, B, {1}) = Dvj f (x) j=1,...,n Si definisce gradiente di f in x¯, relativamente alla base B, il vettore di Rn (colonna):   Dv1 f (x)  Dv f (x)    2 ∇B f (¯ x) =   ..   . Dvn f (x) cosicch´e

Jf (¯ x, B, {1}) = ∇B f (¯ x)∗ avendo indicato con w∗ il trasposto del vettore w. Dalla (3) si ottiene: Jf (¯ x, B, B ′ ) = [∇B fi (x)∗ ]i=1,...,m Supponiamo ora che B = {v1 , . . . , vn } ⊂ C sia una base ortonormale rispetto ad un certo prodotto scalare h·, ·i di Rn , ossia  1 se i = j hvi , vj i = 0 se i 6= j Pn e sia v = j=1 cj vj ∈ C un vettore non nullo di C. Abbiamo gi`a visto che " n # m X X df (¯ x)v = Dvj fi (¯ x)cj wi . i=1

j=1

4

Ora osservando che, se v = a1 v1 + . . . + an vn e w = b1 v1 + . . . + bn vn , si ha hv, wi = h

n X i=1

ai vi ,

n X

bj v j i =

j=1

n X

ai bj hvi , vj i =

i,j=1

n X

a j bj

j=1

(perch´e la base {v1 , . . . , vn } ⊂ C `e ortonormale), otteniamo: df (¯ x)v =

m X

h∇B fj (¯ x), viwj

(6)

j=1

` importante sottolineare che la (6) vale se B = {v1 , . . . , vn } ⊂ C `e una base E ortonormale rispetto al prodotto scalare h·, ·i Se m = 1 (e w = 1) la (6) si scrive: df (¯ x)v = h∇B f (¯ x), vi (7) formula nota col nome di Teorema del gradiente. Teorema (Continuit`a delle funzioni differenziabili) Sia f : Ω → Rm una funzione differenziabile in x¯ ∈ Ω ∩ Ω′ . Allora f `e continua in x¯. Dimostrazione. Si ha: x) = lim f (x)−f (¯ x)−df (¯ x)(x−¯ x)+df (¯ x)(x−¯ x) = lim df (¯ x)(x−¯ x) = 0 lim f (x)−f (¯ x→¯ x

x→¯ x

x→¯ x

perch´e le funzioni lineari sono continue (Lipschitziane). ◦

Teorema (del differenziale totale) Siano f : Ω → R una funzione e x¯ ∈Ω un punto interno ad Ω. Supponiamo che esista un intorno B(¯ x, r) ⊂ Ω ed una base ortonormale B = {v1 , . . . , vn } di Rn tale che tutte le derivate direzionali Dvi f (x), i = 1, . . . , n, esistano in ogni punto x ∈ B(¯ x, r) ⊂ Ω e siano continue in x¯. Allora f `e differenziabile in x¯. Dimostrazione. Facciamo la dimostrazione nel caso n = 2. Il caso generale si prova in maniera analoga ed `e solo un po’ pi` u complicato tecnicamente. Sia {v1 , v2 } una base ortonormale di R2 . Per ogni x ∈ B(¯ x, r), scriviamo x − x¯ = hv1 + kv2 . Avendosi kx − x¯k2 = h2 + k 2 risulter` a x ∈ B(¯ x, r) se e solo se h2 + k 2 < r 2 . (8) Si ha: f (x)−f (¯ x) = f (¯ x+hv1 +kv2 )−f (¯ x) = [f (¯ x+hv1 +kv2 )−f (¯ x+hv1 )]+[f (¯ x+hv1 )−f (¯ x)] 5

La funzione di una variabile1 ϕ2 (t) = f (¯ x + hv1 + tkv2 ),

0≤t≤1

`e derivabile per 0 ≤ t ≤ 1. Infatti, se k = 0 si ha ϕ2 (t) = f (¯ x + hv1 ) che `e costante, rispetto a t, e quindi derivabile, rispetto a t, con derivata nulla; se invece k 6= 0 risulta: f (¯ x + hv1 + tkv2 + τ kv2 ) − f (¯ x + hv1 + tkv2 ) ϕ2 (t + τ ) − ϕ2 (t) ϕ2′ (t) = lim = lim τ →0 τ →0 τ τ f (¯ x + hv1 + tkv2 + sv2 ) − f (¯ x + hv1 + tkv2 ) = kDv2 f (¯ x + hv1 + tkv2 ). = k lim s→0 s E` chiaro che la stessa uguaglianza vale anche per k = 0. Allo stesso modo si prova che la funzione2 ϕ1 (t) = f (¯ x + thv1 ) `e derivabile per t ∈ [0, 1] e si ha: x + thv1 ), ϕ1′ (t) = hDv1 f (¯

0 ≤ t ≤ 1.

Applicando il Teorema di Lagrange alle funzioni ϕ1 (t), ϕ2 (t), si ha: f (¯ x + hv1 + kv2 ) − f (¯ x) = [ϕ2 (1) − ϕ2 (0)] + [ϕ1 (1) − ϕ1 (0)] = x + θ1 hv1 ) + kDv2 f (¯ x + hv1 + θ2 kv2 ). = ϕ2′ (θ2 ) + ϕ1′ (θ1 ) = hDv1 f (¯ dove θ1 = θ1 (h, k) e θ2 = θ2 (h) dipendono da (h, k ) e h risp., e θ1 , θ2 ∈ [0, 1]. Pertanto i punti x¯ +θ1 hv1 e x¯ +hv1 +θ2 kv2 appartengono al B(¯ x, r) in quanto (θ1 hv1 , 0) e (hv1 , θ2 kv2 ) soddisfano la (8). Si ottiene allora: f (x) − f (¯ x) − Dv1 f (¯ x)h − Dv2 f (¯ x)k = khv1 + kv2 k 1 hkv1 k [Dv1 f (¯ x + θ1 hv1 ) − Dv1 f (¯ x)] khv1 + kv2 k kv1 k kkv2 k 1 +[Dv2 f (¯ x + hv1 + θ2 kv2 ) − Dv2 f (¯ x)] khv1 + kv2 k kv2 k 1 uso l’indice 2 per indicare il fatto che `e il coefficiente di v2 che varia. Si noti che da h2 + k 2 < r2 segue h2 + t2 k 2 < r2 , per |t| ≤ 1, e quindi x ¯ + hv1 + tkv2 ∈ B(¯ x, r). 2 anche qui uso l’indice 1 per indicare che `e il coefficiente di v1 a variare e anche qui si vede che x ¯ + thv1 ∈ B(¯ x, r)

6

Proviamo che se w1 e w2 sono due vettori indipendenti esiste una costante c > 0 tale che kw1 k, kw2 k ≤ ckw1 + w2 k. Sia π : R2 → R2 l’applicazione lineare definita da π(aw1 + bw2 ) = aw1 . Ricordando che per ogni applicazione lineare vale kLvk ≤ kLk kvk (dove kLk `e la norma di L) otteniamo: kw1 k = kπ(w1 + w2 )k ≤ kπkkw1 + w2 k. ed anche kw2 k = k(I − π)(w1 + w2 )k ≤ kI − πkkw1 + w2 k. Quindi basta prendere c = max{kπ k, kI − π k}. Allora si ha:    f (x) − f (¯ c x) − Dv1 f (¯ x)h − Dv2 f (¯ x)k   ≤ |Dv1 f (¯ x + θ1 hv1 ) − Dv1 f (¯ x)|   kv1 k khv1 + kv2 k c → 0 per (h, k) → (0, 0) +|Dv2 f (¯ x + hv1 + θ2 kv2 ) − Dv2 f (¯ x)| kv2 k perch´e Dv1 f (x) e Dv2 f (x) sono continue in x¯ e k¯ x + θ1 hv1 − x¯k ≤ |h|kv1 k → 0, per h → 0 k¯ x + hv1 + θ2 kv2 − x¯k ≤ |h|kv1 k + |k|kv2 k → 0, per (h, k) → (0, 0). Osservazione. Il Teorema del differenziale totale vale anche se la base {v1 , . . . , vn } non `e ortonormale rispetto al prodotto scalare scelto. Infatti basta scegliere un altro prodotto scalare in modo che {v1 , . . . , vn } sia ortogonale rispetto alla norma indotta dal nuovo prodotto scalare. Dalla dimostrazione segue che f `e differenziabile in x¯ rispetto alla nuova norma. Ma dato che in Rn tutte le norme sono equivalenti3 ne segue che il concetto di differenziabilit` a non dipende dalla norma scelta e quindi f `e differenziabile in x¯ anche rispetto alla norma di partenza.

3

due norme k · k1 e k · k2 si dicono equivalenti se esistono due numeri a, b > 0 tali che per ogni x ∈ Rn risulta akxk1 ≤ kxk2 ≤ bkxk1 .

7...


Similar Free PDFs