Assicurazioni mf PDF

Title Assicurazioni mf
Course Matematica Finanziaria
Institution Università Cattolica del Sacro Cuore
Pages 46
File Size 1.2 MB
File Type PDF
Total Downloads 58
Total Views 156

Summary

elementi di matematica attuariale...


Description

ELEMENTI DI MATEMATICA ATTUARIALE

Indice

pag. 1 Elementi di Calcolo delle Probabilità 4 1.1 Definizioni di probabilità . . . . . . . . . . . . . . . . . . . . . . 4 1.2 Variabili aleatorie . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.2.1 Variabili aleatorie discrete . . . . . . . . . . . . . . . . . . 8 1.2.2 Variabili aleatorie continue ................. 9 1.2.3 Funzione di ripartizione . . . . . . . . . . . . . . . . . . . 9 1.2.4 Valori di sintesi . . . . . . . . . . . . . . . . . . . . . . . . 10 1.2.5 Valore atteso . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.2.6 Varianza e scarto quadratico medio . . . . . . . . . . . . . 11 1.2.7 Variabili aleatorie discrete classiche . . . . . . . . . . . . . 1.2.8 Variabile aleatoria di Bernoulli . . . . . . . . . . . . . . . 1.2.9 Variabile aleatoria Binomiale . . . . . . . . . . . . . . . . 1.2.10 Variabile aleatoria di Poisson . . . . . . . . . . . . . . . . 12 1.2.11 Variabili aleatorie continue ................. 12 Variabile aleatoria Uniforme . . . . . . . . . . . . . . . . . 12 Variabile aleatoria Esponenziale Negativa . . . . . . . . . Variabile aleatoria Normale . . . . . . . . . . . . . . . . . 13 2 Teoria delle assicurazioni 14 2.1 Il contratto di assicurazione . . . . . . . . . . . . . . . . . . . . . 14 2.1.1 Tipologie di assicurazione . . . . . . . . . . . . . . . . . . 14 2.1.2 Assicurazioni sulla durata di vita . . . . . . . . . . . . . . 15 2.2 Le basi tecniche . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.2.1 Il modello probabilistico elementare per le assicurazioni sulla durata di vita . . . . . . . . . . . . . . . . . . . . . . 15 2.2.2 La durata aleatoria di vita di un individuo . . . . . . . . 16 2.2.3 Le tavole di sopravvivenza . . . . . . . . . . . . . . . . . . 17 2.2.4 La probabilità di vita .................... 18 La probabilità di morte ................... 18 2.3 Premio unico nelle polizze vita ................... 19 2.3.1 Premio unico puro . . . . . . . . . . . . . . . . . . . . . . 20 2.3.2 Principali tipi di assicurazioni . . . . . . . . . . . . . . . . 20 2.3.3 Assicurazione di capitale differito in caso di sopravvivenza 20 Rendita in caso di vita . . . . . . . . . . . . . . . . . . . .21

Assicurazione di capitale in caso di morte . . . . . . . . .

Assicurazioni miste . . . . . . . . . . . . . . . . . . . . . .

2.4 I premi annui . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Esercizi svolti 25

22

23 Indice

24

Bibliografia

39

CAPITOLO

1

Elementi di Calcolo delle Probabilità

In questo capitolo vogliamo richiamare alcuni concetti di base del calcolo delle probabilità e presentare le principali variabili casuali discrete e continue, usate in modo più frequente nella matematica finanziaria e attuariale.

1.1

Definizioni di probabilità

Definizione 1.1.1. Probabilità secondo la definizione classica: la probabilità di un evento (E) è il rapporto tra il numero di casi favorevoli al verificarsi dell’evento in questione (f) e il numero totale dei casi possibili (p): P(E) =

f

p

nell’ipotesi che questi ultimi siano tutti equamente probabili. Si pensi, come esempio, alla probabilità che una carta scelta a caso da un mazzo da briscola sia un asso. La definizione classica ha creato alcuni problemi applicativi, poiché non sempre è possibile contare i casi possibili (e quindi neppure quelli favorevoli); inoltre, spesso essi non sono neppure equiprobabili. Ciò ha portato, nella seconda metà dell’Ottocento, a ripensare alla probabilità in termini nuovi. Un primo modo, basata sul concetto di frequenza relativa, è applicabile ad esperimenti che possono essere ripetuti molte volte nelle stesse condizioni (e il cui risultato non è prevedibile con certezza a priori). In questi esperimenti, dopo una serie di ripetizioni, le frequenze relative mostrano di solito una tendenza a stabilizzarsi. La probabilità, in questa concezione, è:

3

Definizione 1.1.2. Probabilità secondo la definizione frequentista: si definisce frequenza relativa di un evento su n prove (tutte ripetute nelle stesse condizioni) il rapporto tra il numero di volte in cui si è manifestato l’evento (k) e il numero totale di prove effettuate (n).

1.1. Definizioni di probabilità

4

La probabilità di un evento è la frequenza relativa dell’evento in questione, calcolata su un numero di prove sufficientemente elevato: k P(E) = lim

n→+∞ n

Si pensi, come esempio, al lancio ripetuto di una moneta. Se si contano il numero di volte k in cui esce testa ci si aspetta che dopo n lanci (con n adeguatamente elevato) il rapporto k/n approssimi la probabilità che, lanciando la moneta, esca appunto testa. In realtà, anche questa definizione presenta alcuni punti deboli, perchè, per esempio, non sempre la frequenza relativa associata ad un evento in una serie di prove è la stessa che caratterizzerà un’altra serie di prove. De Finetti e Savage hanno proposto una definizione di probabilità (detta soggettiva) applicabile ad esperimenti casuali le cui realizzazioni possano non essere ritenute ugualmente possibili. Inoltre, non è necessario che tali esperimenti siano ripetibili più volte sotto le stesse condizioni. Definizione 1.1.3. Probabilità secondo la definizione soggettiva: si definisce probabilità di un evento il prezzo che un individuo razionale ritiene equo pagare per ricevere 1 euro se l’evento si verifica, 0 euro se l’evento non si verifica. Per rendere applicabile la definizione, è stato aggiunto anche un criterio di coerenza: le probabilità degli eventi devono essere attribuite in modo tale se l’evento di cui si vuol trovare la probabilità sia una scommessa (nella quale si paga il prezzo per giocare la scommessa che fa vincere 1 euro se l’evento si verifica e nulla in caso contrario) per il soggetto che fissa la probabilità stessa non sia possibile ottenere una vincita o una perdita certa. L’ultima concezione di probabilità, detta assiomatica e dovuta a Kolmogorov, parte dal concetto di famiglia di eventi, sulla base del quale vengono definiti poi gli assiomi della probabilità.

1.1. Definizioni di probabilità

5

Definizione 1.1.4. Assiomi della famiglia di eventi: sia S un insieme non vuoto, detto spazio ambiente, i cui elementi prendono il nome di eventi elementari; tali eventi elementari descrivono tutti i possibili esiti di un fenomeno casuale. Si definiscono evento un sottoinsieme A ∈ S e famiglia degli eventi (A) la famiglia dei sottoinsiemi A ∈ S che soddisfano le seguenti proprietà: 1. S è un evento, ovvero S ∈ A. Questo evento viene detto evento certo. = S \A lo è: A ∈ A ⇒

2. se A è un evento, anche il suo complementare A A ∈A

3. sia A1,A2,...,An una successione finita di eventi; la loro unione è n

[ anch’essa un evento: A1,A2,...,An ∈ A ⇒ Ai ∈ A. i=1

Possiamo

ora fornire la seguente: Definizione 1.1.5. Definizione assiomatica di probabilità: dato un insieme ambiente S e una classe di eventi A che soddisfa le proprietà della definizione 1.1.4, si definisce probabilità una funzione che associa ad ogni evento A ∈ A un numero reale non negativo P(A). La funzione in questione deve soddisfare le seguenti proprietà: 1. P(A) ≥ 0, ∀A ∈ A; 2. P(S) = 1 3. sia A1,A2,...,An una successione di eventi tra loro incompatibili, ovvero tali che la loro intersezione sia vuota: Ai∩Aj = ∅, ∀i,j = 1,...,n i =6 j. Allora n! P [ Ai

= Xn

P(Ai).

i=1 i=1

La terna (S,A,P ) prende il nome di spazio di probabilità. Vale la pena far notare che due eventi A,B ∈ A si dicono:

1.1. Definizioni di probabilità •

6

compatibili se la loro intersezione non è vuota, ovvero se A ∩ B =6 ∅ e, quindi, P(A ∩ B) = 06 ;



incompatibili se A ∩ B = ∅ e quindi P(A ∩ B) = 0.

Valgono i seguenti teoremi (dei quali si omette la dimostrazione): Teorema 1.1.6. Probabilità dell’evento complementare: sia evento. Allora la probabilità del suo evento complementare A è

A un

P(A) = 1 − P(A)

Teorema 1.1.7. Probabilità dell’unione di due eventi: siano A e B due eventi. Allora P(A ∪B) = P(A) + P(B) − P(A ∩ B).

Come caso particolare, se A e B sono eventi incompatibili si ha P(A ∪B) = P(A) + P(B). Vale inoltre la seguente Definizione 1.1.8. Probabilità condizionata: sia (S,A,P) uno spazio di probabilità. Siano A,B ∈ A due eventi tali che P(B) = 06 . Si definisce probabilità dell’evento A condizionato alla realizzazione dell’evento B la quantità: ) P

.

Vale allora il seguente Teorema 1.1.9. delle probabilità composte. Sia (S,A,P) uno spazio di probabilità. Siano A,B ∈ A due eventi. Allora P(A ∩ B) = P(B) · P(A/B) P(A ∩ B) = P(B) · P(A)

se A e B sono dipendenti se A e B sono indipendenti

Come esempio si ipotizzi che l’evento A sia “uno studente scelto a caso supera l’esame di matematica finanziaria” mentre l’evento B è “lo studente ha studiato per l’esame di matematica finanziaria più di 100 ore”. La probabilità condizionata P(A/B) misura la probabilità che uno studente che si sa aver studiato per più di 100 ore matematica finanziaria riesca a superare l’esame.

1.1. Definizioni di probabilità

7

Due eventi si dicono dipendenti se P(A/B) =6 P(A) ovvero se sapere che si è verificato l’evento B modifica la probabilità assegnata al verificarsi dell’evento A. Usando l’esempio precedente, se esiste un legame tra l’aver studiato per più di 100 ore l’esame di matematica finanziaria ed il superare l’esame stesso si avrà P(A/B) > P(A). In caso contrario, ovvero se (P(A/B) = P(A)) i due eventi si dicono indipendenti: lo studiare o meno per più di 100 ore non altera la probabilità di superare l’esame. Due eventi A e B sono detti positivamente (negativemente) correlati se P(A/B) > P(A) (P(A/B) > P(A)) ovvero se sapere che l’evento B si è realizzato aumenta (diminuisce) la probabilità che si verifichi l’evento A. Definizione 1.1.10. Gli insiemi A1, ..., An ∈S formano una partizione dell’insieme S se • Ai ∩ Aj = ∅ ∀i,j = 1,...,n,i =6

j

• A1 ∪ A2 ∪ ... ∪ An = S Un esempio di partizione è quello dato dai segni zodiacali. Dato un gruppo di persone, queste possono essere suddivise in base al proprio segno zodiacale: ogni persona ha uno ed un solo segno zodiacale per cui gli insiemi che raggruppano le persone in base al segno hanno intersezione vuota. Per di più, tutte le persone hanno un segno zodiacale e quindi appartengono ad uno ed uno solo degli insiemi. Ricordiamo infine due importanti teoremi (dei quali si omette la dimostrazione): Teorema 1.1.11. delle probabilità totali Sia {A1,...,An} una partizione di S tale per cui, ∀i, P(Ai) > 0 e sia B ∈ A un evento. Allora: n

X P(B) = P(Ai) · P(B/Ai). i=1

Teorema 1.1.12. di Bayes Sia {A1,...,An} una partizione di S tale per cui,∀i, P(Ai) > 0 e sia B ∈ A un evento tale che P(B) = 06 . Allora:

P B/A i P(Ai/B) = P(Ai) · P( (B) )

1.2. Variabili aleatorie

8

oppure, in forma più generale sfruttando il teorema delle probabilità totali,

P(Ai/B) = X

Pn (B/Ai) · P(Ai)

.

P(Ai) · P(B/Ai) i=1

Il teorema di Bayes è uno strumento importante in quanto esprime il legame tra la probabilità di un evento condizionato P(Ai/B) e quella dello stesso evento senza condizionamento P(Ai). La probabilità condizionata aumenta o diminuisce rispetto alla probabilità non condizionata dello stesso evento in relazione al valore assunto ( B/A i) dal fattore di aggiustamento P P (B ) . Come esempio si pensi all’evento A “la mia squadra del cuore vincerà la prossima partita” ed all’evento B “il bomber della mia squadra del cuore giocherà la prossima partita”. Sapere se il bomber giocherà o meno (evento condizionante) modifica la probabilità che la squadra vinca (evento condizionato). Molto probabilmente in questo caso si avrà che P(A/B) > P(A) il che vuol dire che il fattore di aggiornamento della probabilità condizionata P

1.2

(B/A ) P (B) è

una quantità maggiore di 1.

Variabili aleatorie

Nei modelli matematici che verranno definiti più avanti viene spesso utilizzato il concetto di variabile aleatoria (v.a.), che ora procediamo a definire. Definizione 1.2.1. Dato uno spazio di probabilità (S,A,P ), si definisce variabile aleatoria un’applicazione X : S → R tale che per ogni x ∈ R l’insieme {s ∈ S : X(s) ≤ x} sia in A. Quindi, una variabile aleatoria è sempre tale per cui l’insieme {s ∈ S : X(s) ∈ (−∞;x]} è un evento, ∀x ∈ R. Se consideriamo poi un insieme A generato da unioni ed intersezioni di intervalli di numeri reali, allora anche {s ∈ S : X(s) ∈ A} è un evento ed è possibile calcolarne la probabilità P ({s ∈ S : X(s) ∈ A}). Per brevità, si indicherà con {x ∈A} un evento e con P ({x ∈ A}) la sua probabilità.

1.2. Variabili aleatorie

1.2.1

9

Variabili aleatorie discrete

Definizione 1.2.2. Si dice determinazione di una variabile aleatoria ogni valore che essa può assumere. Una variabile aleatoria viene detta discreta se le sue determinazioni formano un insieme finito (x1,...,xn ∈ R) o infinito numerabile (yk, k ∈ N). Se sono assegnate le coppie (xi,p(xi)),i ∈ I ⊆ N, allora si dirà che è assegnata la legge di probabilità della v.a. discreta X. Il numero p(xi) = P ({X = xi}) rappresenta la probabilità che la v.a. X assuma il valore xi. Nel caso ci fossero più v.a. discrete, al loro legge di probabilità viene definita con il simbolo che identifica la v.a. a pedice, ovvero pX(xi) = P (X = xi). In base agli assiomi della probabilità, richiamati nella definizione (1.1.5), è possibile affermare che, per ogni legge di una v.a. discreta valgono le seguenti proprietà: p(xi) ≥ 0, ∀i ≥ 1

i.

ii.

X+∞ p(xi) = 1 i=1

1.2.2

Variabili aleatorie continue

Definizione 1.2.3. Una variabile aleatoria viene detta continua se esiste una funzione f(x), positiva e integrabile, tale che, ∀x ∈ R, Z x P(X ≤ x) = f(t)dt. −∞

La funzione f(x) prende il nome di funzione di densità di probabilità di X ed è tale che

x2

Z P(x1 < X < x2) =

f(x)dx. x1

In altre parole la probabilità che una v.a. continua assuma valori compresi nell’intervallo [x1;x2] è l’integrale definito, con estremi proprio x1 e x2, della densità di probabilità. Si ha inoltre che, ∀x1 ∈ R:

1.2. Variabili aleatorie

10 Z x1 P(X = x1) =

f(x)dx = 0 x1

In base agli assiomi della probabilità, richiamati nella definizione (1.1.5), è possibile affermare che, per ogni legge (ovvero per ogni densità di probabilità) di una v.a. continua valgono le seguenti proprietà: f(x) ≥ 0, ∀x ∈ R

i.

ii. Z +∞f(x)dx = 1 −∞

1.2.3

Funzione di ripartizione

Definizione 1.2.4. Si definisce funzione di ripartizione della v.a. X la funzione FX(x) = P(X ≤ x), ∀x ∈R

Se X è una v.a. discreta, dotata di funzione di probabilità pX(x), la funzione di ripartizione è: i. non decrescente ii.

continua a destra

iii.

uguale a 0 per ogni valore di x minore o uguale della più piccola delle determinazioni di X (x1)

iv.

uguale a 1 per ogni valore di x maggiore della più grande delle determinazioni di X (xn)

v.

tale che: i

X FX(xi) = pX(xj), ∀i ∈ (1,n) j=1

Se invece X è una v.a. continua, dotata di funzione di densità di probabilità fX(x), allora la funzione di ripartizione è: i. non decrescente ii.

continua

iii.

tale che

Z

x

FX(x) =

f(t)dt −∞

iv.

tale che

1.2. Variabili aleatorie

11 lim FX(x) = 0; x→−∞

1.2.4

lim F(x) = 1 x→+∞

Valori di sintesi

Valore atteso

Definizione 1.2.5. Si definisce valore atteso o speranza matematica di una v.a. X la quantità: n

X E(X) = xi · p(xi), se X è una v.a. discreta i=1

Z +∞ E(X) =

x · f(x)dx, se X è una v.a. continua

−∞

La definizione di valore atteso di v.a. discreta viene qui data solo per v.a con un numero finito di determinazioni. La definizione può essere facilmente al caso di un’infinità numerabile di determinazioni. Nel caso di v.a. continua l’integrale generalizzato sopra introdotto deve assumere un valore finito. Teorema 1.2.6. [Teorema del valore atteso] Il valore atteso della somma di più variabili casuali è la somma dei valori attesi di ogni variabile casuale. Siano X e Y due v.a. e siano c e d due numeri reali. Valgono le seguenti proprietà elementari del valore atteso (delle quali si omette la dimostrazione): i. E(X + c) = E(X) + c, ii. iii. E(X + Y ) = E(X) + E(Y ), iv. E(cX + E(cX) = cE(X),

dY ) = cE(X) + dE(Y ).

Il valore atteso o valore medio è quindi un operatore lineare. Varianza e scarto quadratico medio Definizione 1.2.7. Si definisce varianza di una v.a. X la quantità V (X) = E [X − E(X)]2 = E(X2) − [E(X)]2

Per ogni v.a. X e per ogni numero reale c valgono le seguenti proprietà elementari della varianza (delle quali si omette la dimostrazione):

1.2. Variabili aleatorie

i.

12

V (X + c) = V (X)

V (cX) = c2V (X)

ii.

Definizione 1.2.8. Si definisce scarto quadratico medio di una v.a. X la quantità p σ(X) = V (X)

1.2.5

Variabili aleatorie discrete classiche

Variabile aleatoria di Bernoulli Definizione 1.2.9. Una v.a. è detta di Bernoulli di parametro p, 0 < p < 1, se, come realizzazioni, può assumere solo le determinazioni 0 oppure 1, rispettivamente con probabilità 1 − p e p. Si dirà allora che una v.a. è di Bernoulli (X ∼ Ber(p)) se possiede la seguente legge di probabilità: 1−p pX(x) =

p 0

x = 0 x=1 altrove

Proposizione 1.2.10. Sia X una v.a. di Bernoulli. Allora: E(X) = p

V (X) = p(1 − p)

Variabile aleatoria Binomiale Definizione 1.2.11. Si ipotizzi di ripetere n volte un esperimento casuale che, ad ogni ripetizione, ha successo con probabilità p, (0 < p < 1). Sia k = 0,1,...,n il numero di volte nelle quali l’esperimento, effettuato n volte, termina con un successo. Si definisce v.a. Binomiale di parametri n ∈ N e p, 0 < p < 1, la v.a. che descrive il numero di successi in un esperimento ripetuto alle medesime condizioni n volte. La v.a. Binomiale (X ∼Bin(n,p )) possiede la seguente legge di probabilità: npx (1 − p)n−x altrove

x = 0,1,...,n pX(x) =

x 0

1.2. Variabili aleatorie

dove

n x

=

x

13

n ! !(n − x)!

è il coefficiente binomiale e dove x! = 1·...·x viene detto

fattoriale di x. Per il fattoriale vale la convenzione 0! = 1. Proposizione 1.2.12. Sia X una v.a. Binomiale. Allora: E(X) = np

V (X) = np(1 − p)

Variabile aleatoria di Poisson Definizione 1.2.13. Una v.a. è detta di Poisson di parametro λ > 0 (X ∼ Po (λ)) se possiede la seguente legge di probabilità: e−λ ·λx x!

x ∈N

0

altrove

pX(x

Proposizione 1.2.14. Sia X una v.a. di Poisson. Allora: E(X) = λ

1.2.6

V (X) = λ

Variabili aleatorie continue

Variabile aleatoria Uniforme Definizione 1.2.15. Una v.a. viene detta Uniforme sull’intervallo [a,b] (X ∼ U(a,b)) se ha funzione di densità di probabilità:

b −1 a

x ...


Similar Free PDFs