Pagine da Matematica Finanziaria Progredito PDF

Title Pagine da Matematica Finanziaria Progredito
Author Luca Zaffaina
Course Matematica finanziaria
Institution Università degli Studi di Trento
Pages 10
File Size 631.5 KB
File Type PDF
Total Downloads 75
Total Views 170

Summary

MATEMATICA FINANZIARIALa literature è importante da studiare per la teoria. STUDIARE TANTO LE SLIDE + paper fatti stilizzati primi due paragrafi. ESAME: Test scritto che include domande teoriche ed esercizi, anche in ambiente MATLAB (100%). Conterrà quanto fatto a lezione. Domande d’esame / domande ...


Description

MATEMATICA FINANZIARIA La literature è importante da studiare per la teoria. STUDIARE TANTO LE SLIDE + paper fatti stilizzati primi due paragrafi. ESAME: Test scritto che include domande teoriche ed esercizi, anche in ambiente MATLAB (100%). Conterrà quanto fatto a lezione. Domande d’esame / domande di teoria aperte o come codice da interpretare come input o output: Definizione Fatti Stilizzati o qualcosa correlato; risultati di una rolling style analysis e ci viene chiesta l’interpretazione, posso chiedere come scelgo i fattori per l’analisi RBSA, differenza approccio analitico e deduttivo, in che cosa consiste il modello di media-varianza di Markowitz. Quale è la frontiera con vincoli più stringenti sui paesi del portafoglio (grafico), spiegare il motivo? La frontiera più piccola perché lo spazio delle soluzioni ammissibili, ovvero lo spazio di ricerca dell’ottimo del problema di ottimizzazione è minore nel caso in cui si abbiano dei vincoli più stringenti in quanto lo spazio di ricerca dell’ottimo si restringe al restringersi dei vincoli. MATLAB: lei ci fornisce una tabella di quelle dell’optimization toolbox e ci dice che MATLAB risolve i problemi di minimizzazione con questi risolutori e ci fornisce un problema. Quale algoritmo utilizziamo? Quali input? (A,b, aec, bec)? O per esempio cos’è la matrice H (matrice quadratica) ma lei ci fornirebbe gli algoritmi e dato un problema come lo impostiamo in MATLAB. Esempio, risolvere un problema quadratico, troviamo il valore di x se vogliamo risolvere questo problema. Allora la risposta sarebbe siccome è un problema quadratico uso la funzione quadprog, la matrice H è questo, il vettore f è questo e il vettore x è questo→noi dobbiamo solo scrivere i parametri della funzione di MATLAB. A nostra disposizione avremmo la definizione di tutti i problemi. MATLAB: scrivere funzione semplice come: ciclo for, funzione di correlazione costante (DA SAPERE BENE), funzioni semplici. Solo per cose di base. INTERPRETAZIONE: In-sample, out-of-sample. Vedere se c’è contributo della gestione attiva con interpretazioni finanziarie. 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11.

Assenza di autocorrelazione Heavy/Fat tails (Code “pesanti”) - Leptokurtotica Asimmetria Perdita/Guadagno Normalità “aggregativa”: Intermittenza Volatility clustering Conditional heavy tails Lento decadimento della autocorrelazione nei rendimenti assoluti Effetto leva Correlazione Volume/Volatilità Asimmetria nella scala temporale

1. STATISTICA – RIPASSO PROBABILITÀ PROBABILITÀ E INFERENZA (Con la probabilità vado dalla popolazione al campione. Quando osserviamo un campione, es. classe, posso provare a fare una inferenza su tutti gli studenti di Trento.)

1

DEFINIZIONI - Esperimento casuale o prova: ogni fatto caratterizzato da incertezza circa le modalità del suo verificarsi – esperimento in cui c’è un certo grado di incertezza su quale risultato si presenterà. Il risultato non è prevedibile, ma l’insieme dei possibili risultati è definibile a priori. È replicabile. - Evento elementare: esito con cui si verifica l’esperimento casuale (punto dello spazio campionario) - Evento: può essere scomposto in più eventi elementari (sottoinsieme dello spazio campionario). - Universo o spazio campionario Ω: insieme di tutti i possibili esiti dell’esperimento o eventi elementari. (Esperimento casuale, esempio: lancio della moneta, non so se uscirà testa o croce, l’insieme dei risultati però è definito a priori, T e C. Evento elementare è lancio della moneta 3 volte) ESEMPI Esempio 1: lancio di un dado - prova: lancio di un dado e lettura del risultato - eventi elementari : 1, 2, 3, 4, 5, 6 - esempio di evento: ”esce un numero pari” - universo: Ω = {1, 2, 3, 4, 5, 6} Esempio 2: piovosità - prova: osservazione piovosità - esempio di evento elementare: ”piovosità=28.8mm” - esempio di evento: ”piovosità>26mm” - universo: Ω = R+ (Gli eventi elementari sono difficili da trovare nella realtà. Solitamente usiamo eventi. L’universo dei possibili eventi è l’insieme degli eventi reali positivi. ) INTRODUZIONE - Probabilità: Numero che misura il grado di incertezza di un evento; - Esistono differenti possibili definizioni: classica (Laplace), frequentista (von Mises) e soggettivista (De Finetti). DEFINIZIONI - Classica (Laplace): o Rapporto fra il numero di casi favorevoli al manifestarsi dell'evento A e il numero di casi possibili, purché siano equiprobabili. - Frequentista (von Mises): o In una serie di prove di un dato esperimento, ripetuto un gran numero di volte in circostanze simili, ciascuno degli eventi possibili si manifesta con una frequenza che è pressappoco uguale alla sua probabilità. - Soggettivista (De Finetti): o Data una scommessa equa, la probabilità dell'evento A è il prezzo che un individuo coerente è disposto a pagare per ricevere in cambio un'unità monetaria nel caso in cui A sia vero. (Frequentista: lancio il dado un numero infinito di volte e guardo quante volte il numero dei numeri esce. Soggettivista guarda alla teoria dei giochi.) DEFINIZIONE ASSIOMATICA (KOLMOGOROV) - La probabilità P(E) di un evento E appartenente all’universo Ω è una funzione a valori reali sull'intervallo [0,1] e avente le seguenti proprietà:

2

(Assioma = affermazione che si prende per vera. La probabilità che avvenga l’evento è positiva. Quale è la probabilità di avere un numero pari o un numero pari o dispari = 1; avere numero ne pari ne dispari = 0.)

(x è la realizzazione dell’evento casuale, a questo associo P che è la probabilità e va da 0 a 1.) PROBABILITÀ CONDIZIONATA - Se P(B)>0, allora la probabilità condizionata che si verifichi A dato che si è verificato B è data da: 𝑃 (𝐴|𝐵) =

𝑃 (𝐴 ∩ 𝐵) 𝑃 (𝐵)

PROBABILITÀ TOTALE - Dati due eventi A e B si può scrivere: 𝑃(𝐴) = 𝑃(𝐴|𝐵)𝑃(𝐵) + 𝑃(𝐴|𝐵 𝐶 )𝑃(𝐵 𝐶 ) -

Se B1,B2, Bn sono una partizione di B (insiemi disgiunti a coppie e necessari per B), vale: 𝑛

𝑃(𝐴) = ∑ 𝑃(𝐴|𝐵𝑖 )𝑃(𝐵𝑖 ) (Dati due eventi si può scomporre la probabilità di A)

𝑖=1

TEOREMA DI BAYES - Siano B1,B2, Bn una partizione di B (insiemi disgiunti a coppie e necessari per B), e sia A un evento in esso incluso. Allora vale: 𝑃 (𝐴|𝐵𝑖 )𝑃(𝐵𝑖 ) 𝑃 (𝐵𝑖 |𝐴) = 𝑃 (𝐴) INDIPENDENZA - Due eventi A e B si dicono indipendenti se il verificarsi di B non influenza la probabilità di A ed il verificarsi di A non influenza la probabilità di B, ovvero se vale: 𝑃 (𝐴 ∩ 𝐵) = 𝑃(𝐴)𝑃(𝐵) -

Esempio: lancio di un dado A=”esce il numero 2”, B=”esce un numero pari”, C=”esce il numero 2 o 3”.

(Se due eventi sono indipendenti la loro intersezione è la moltiplicazione tra le rispettive probabilità.) INDIPENDENZA – ESEMPIO - Data un'urna contenente 100 palline delle quali 17 nere e 83 bianche, si vuole conoscere la probabilità che in due estrazioni si ottengano 2 palline nere. - Estrazione con reinserimento: 17 17 289 𝑃 (𝐴 ∩ 𝐵) = 𝑃(𝐵|𝐴)𝑃(𝐴) = = = 𝑃(𝐵)𝑃(𝐴) 100 100 10000 3

-

Estrazione senza reinserimento:

272 1617 (𝐴 ∩ 𝐵) = 𝑃 (𝐵|𝐴)𝑃(𝐴) = = 99 100 9900 (Con reinserimento: la popolazione non cambia, quindi estraggo e reintroduco. Se invece non c’è reinserimento allora la popolazione cambia ogni volta che c’è un’estrazione.) VARIABILI CASUALI, DISCRETE E CONTINUE DEFINIZIONI • Variabile casuale o aleatoria: numero associato al risultato di un esperimento casuale: Χ ∶ Ω ⇒ 𝑅𝑋 ⊆ ℜ • RX è detto insieme di definizione, campo di variazione o range della variabile aleatoria (La variabile casuale è una funzione che ci permette di fare una mappatura dallo stato degli eventi ai numeri reali, ad esempio.)

(Grafico più importante. Dallo spazio campionario dell’evento gli associo un numero attraverso la variabile casuale che è caratterizzata da una data distribuzione di probabilità.) DEFINIZIONI - Determinazione o realizzazione di una variabile aleatoria: valore osservato al termine della prova. - Variabili aleatorie discrete: caratterizzate da un numero finito o numerabile di valori possibili (numeri reali); - Variabili aleatorie continue: caratterizzate da un insieme continuo di valori possibili (intervallo di numeri reali). (Le variabili casuale possono essere discrete o continue.) ESEMPI Esempio: conteggio dei prodotti difettosi di uno stabilimento variabile casuale discreta X = ”numero dei prodotti difettosi”. 𝑅𝑋 è l’insieme discreto di tutti i possibili conteggi. n Esempio: osservazione dell’altezza di un individuo variabile casuale continua X = ”altezza in cm”. 𝑅𝑋 è l’insieme continuo di tutte le possibili altezze. (Utilizzo la binomiale per contare i prodotti difettosi, conto il rischio di credito: numero di imprese che vanno in fallimento. I prezzi sarebbero discreti ma vengono approssimati con delle variabili continue.) Eventi elementari Numero finito o infinito numerabile

Spazio degli eventi Finito (insieme delle parti)

Distribuzioni di probabilità Discreta (funzione di probabilità)

Infiniti

Infinito

Continua (funzione di densità)

VARIABILI CASUALI DISCRETE – DEFINIZIONE - La variabile casuale X si dice discreta se assume valori su uno spazio R discreto. Può assumere un numero finito o un'infinità numerabile di valori. - E.g.: Bernoulli, Binomiale. 4

VARIABILI CASUALI DISCRETE – FUNZIONE DI PROBABILITÀ - La funzione di probabilità di una v.c. X discreta è data da 𝑝(𝑥) = 𝑃(𝑋 = 𝑥) ed è una corrispondenza fra valori assunti dalla variabile e relative probabilità PROPRIETÀ o 𝑝(𝑥) ≥ 0 o ∑ 𝑝(𝑥) = 1 (La probabilità è sempre maggiore uguale a zero e somma delle probabilità è uguale a 1.)

VARIABILI CASUALI DISCRETE – FUNZIONE DI RIPARTIZIONE DISCRETA - La funzione di ripartizione, che fornisce la probabilità che la variabile casuale X assuma valori minori od uguali ad un dato x è data da 𝑖

𝐹 (𝑥𝑖 ) = 𝑃 (𝑋 ≤ 𝑥𝑖 ) = ∑ 𝑝(𝑥𝑗 ) 𝑗=1

PROPRIETÀ

(Somma le probabilità che nessuna impresa sia fallita, che una impresa sia fallita, che due imprese siano fallite etc., va a sommare tutti i valori degli eventi accaduti prima.) ESEMPIO: LANCIO SIMULTANEO DI TRE MONETE - Ω ={(CCC),(CCT),(CTC),(TCC),(TTC),(TCT),(CTT),(TTT)} - Otto eventi elementari incompatibili ed equiprobabili, ciascuno associato alla probabilità 1/8. - Sia X="frequenza di teste"

(nk è il numero di eventi, se ho 4 lanci ho 24 = 16 eventi) (Le funzioni di probabilità possono essere rappresentate in questo modo (primo grafico) La seconda è la funzione di ripartizione, è una funzione a gradini, non decrescente e continua a destra. La funzione di ripartizione va a sommare tutti i casi avvenuti precedentemente. )

VARIABILI CASUALI CONTINUE – DEFINIZIONE - La variabile casuale X si dice continua se assume valori su uno spazio R continuo; può assumere tutti i valori in un certo intervallo; 5

-

Poiché possono assumere tutti i valori che appartengono ad un intervallo di numeri reali, non ha senso associare una probabilità a ciascuno di tali infiniti punti; - E.g.: Normale, t-student (Quale probabilità sia ha che il prezzo di Tesla sia 500 o 502? Non posso chiedermi quale probabilità ha che il prezzo sia un unico valore ma solo un intervallo.) VARIABILI CASUALI CONTINUE – FUNZIONE DI DENSITÀ 𝑓(𝑥) - Funzione 𝑓(𝑥) tale che l'area che sottende in corrispondenza di un certo intervallo è uguale alla probabilità che X assuma un valore in quell'intervallo. 𝑃 (𝑋 ∈ 𝐵) = ∫ 𝑓(𝑥)𝑑𝑥 𝐵

PROPRIETÀ

(La variabile casuale continua non ha più una funzione di probabilità ma una funzione di densità. Ultima proprietà ci dice che la probabilità dell’uscita del singolo valore è zero.) VARIABILI CASUALI CONTINUE – FUNZIONE DI RIPARTIZIONE 𝐹(𝑥) - Fornisce la probabilità che la variabile casuale X assuma valori minori o uguali ad un dato x 𝑋

𝐹(𝑥) = 𝑃 (𝑋 ≤ 𝑥) = ∫ 𝑓(𝑥)𝑑𝑥 −∞

PROPRIETÀ

MOMENTI - I momenti hanno un ruolo molto importante nella caratterizzazione della funzione di densità/probabilità in quanto sono indicatori sintetici di alcuni suoi aspetti: o la localizzazione: media o valore atteso (momento I°) o la dispersione: varianza (momento II°) o l'asimmetria: skewness (momento III°) o la curtosi (momento IV°) (I momenti sono delle quantità che giocano un ruolo molto importante nella caratterizzazione della funzione di probabilità e di densità. Perché sono degli indicatori sintetici, cioè il valore atteso (momento di ordine 1) ci dà la localizzazione della variabile. La varianza (momento di ordine secondo) ci dice come i dati si disperdono attorno alla media. L’asimmetria/skewness è il momento terzo e ci dice se ho delle osservazioni estreme nelle code e se c’è asimmetria quindi se i valori negativi prevalgono sui positivi o viceversa. La curtosi è il momento quarto e si dice anch’essa se le code sono grasse e se ho molti valori vicini allo zero.) (Nel discreto il valore atteso è uguale alla sommatoria di x*p(x). Se io ho 3 osservazioni con valore 1,2,3 il valore atteso è uguale a 1*1/3 + 2*1/3 + 3*1/3. (semplicemente la media)). Dati a e b costanti. Vi sono delle proprietà. Se ho 3x il valore atteso sarà uguale a 3 volte il valore atteso di x. Additività ci dice che se le variabili casuali sono tra loro indipendenti il valore atteso della somma delle variabili casuali è la somma dei valori attesi delle singole variabili casuali.) 6

(La varianza è la distanza da x del valore atteso al quadrato pesata per la corrispondente funzione di probabilità o di densità. Se ho la varianza di una costante questa è sempre zero. La varianza è un operatore quadratico per cui per estrarre il valore di X dall’interno della varianza devo farne il quadrato.)

MOMENTI NON CENTRALI DI ORDINE r - Sia X una v.c. e sia r un intero positivo. Si chiama momento non centrale di ordine r di X il valore atteso della v.c. 𝑔(𝑋) = 𝑋 𝑟 , cioè: (I momenti non centrali non sono molto usati ma sono utili nella definizione generale. Il momento non centrale di ordine r di X è il valore atteso della v.c. ) MOMENTI CENTRALI DI ORDINE r - Sia X una v.c. con valore atteso μ e sia r un intero positivo. Si chiama momento centrale di ordine r di X il valore atteso della v.c. X "scarto rispetto alla media": (X - μ) r , cioè:

(Se la variabile è centrata allora X è lo scarto rispetto alla media e abbiamo che per le variabili discrete è uguale a (𝑥 − 𝜇)𝑟 𝑝(𝑥).) MOMENTI – MISURA DELL’ASIMMETRIA (SKEWNESS)

MOMENTI – MISURA DELLA CURTOSI (L’asimmetria (skewness) è uguale a (vedi formula), dove (

𝑋–𝜇 3 ) 𝜎

è la nostra variabile standardizzata.)

MODA E MEDIANA – DEFINIZIONI - La moda della distribuzione della v.c. 𝑋 è quel valore di 𝑋 per cui la funzione di probabilità/densità è massima; - La mediana della distribuzione della v.c. 𝑋 è quel valore di 𝑋, 𝑥𝑚 tale che 𝑃(𝑋 < 𝑥𝑚 ) = 𝑃(𝑋 > 𝑥𝑚 ) (La mediana è quel valore che si colloca al centro della distribuzione per cui ho il 50% della distribuzione a sinistra e il 50% della distribuzione a destra. In una normale: moda, mediana e media coincidono.) VARIABILE CASUALE STANDARDIZZATA - Sia data una v.c. X di valore atteso μ e di scarto quadratico medio σ. La variabile casuale Y 𝑋−𝜇 𝑌= 𝜎 È detta standardizzata poiché ha media nulla (zero) e varianza unitaria (uno). (Una variabile è detta standardizzata quando prende i vari x, sottraggo a questi il nostro valore atteso e divido il tutto per la Per standardizzare una variabile posso fare la formula e così ottengo una variabile con media zero e varianza 1. Su MATLAB avrei: >> x = [0 1 2 4 5 7 32 19] >> y = (x – mean(x))/std(x) -> in questo modo ottengo il vettore dei valori standardizzati. Ora la media di y sarà zero e la varianza 1. Fare questo può essere utile per comparare diverse serie tra loro. 7

Ricordiamo che la media è il momento primo, la deviazione standard il momento secondo, la skewness il momento terzo e la curtosi momento quarto.) VARIABILI CASUALI MULTIPLE – DEFINIZIONI - Vettori di variabili aleatorie: oggetto di interesse sono le relazioni tra più grandezze numeriche - Funzione di ripartizione congiunta: 𝐹(𝑥1 , 𝑥2 , … , 𝑥𝑘 ) = 𝑃(𝑋 ≤ 𝑥1 , … , 𝑋𝑘 ≤ 𝑥𝑘 ) - Funzione di ripartizione congiunta per v.c. discrete: 𝑝(𝑥1 , 𝑥2 , … , 𝑥𝑘 ) = 𝑃(𝑋 = 𝑥1 , … , 𝑋𝑘 = 𝑥𝑘 ) -

Funzione di ripartizione congiunta per v.c. continue (𝐶 ⊂ ℜ𝑘 ): 𝑃((𝑋1 , 𝑋2 , … , 𝑋𝑘 ) ∈ 𝐶) = ∫ 𝑓(𝑥1 , … , 𝑥𝑘 )𝑑𝑥1 … 𝑑𝑥𝑘 𝐶

(Con le variabili casuali multiple, io sono interessato alla distribuzione congiunta del titolo Unicredit e del titolo Eni. Mi posso chiedere quale sia la probabilità che il rendimento di Unicredit sia -3% e quello di Eni sia -4%. Se la variabile è è discreta ho una funzione di probabilità altrimenti una funzione di densità con variabile continua.) VARIABILI CASUALI INDIPENDENTI - Due variabili aleatorie si dicono indipendenti se tutti gli eventi relativi alla prima sono indipendenti da tutti quelli relativi alla seconda: 𝑃(𝑋1 ∈ 𝐴, 𝑋2 ∈ 𝐵) = 𝑃(𝑋1 ∈ 𝐴)𝑃(𝑋2 ∈ 𝐵) - v.c. discrete 𝑝(𝑥1 , 𝑥2 … , 𝑥𝑘 ) = 𝑝 (𝑥1 ) 𝑝(𝑥2 ) … 𝑝(𝑥𝑘 ) - v.c. continue 𝑓(𝑥1 , 𝑥2 … , 𝑥𝑘 ) = 𝑓 (𝑥1 ) 𝑓(𝑥2 ) … 𝑓(𝑥𝑘 ) (Se la probabilità che il rendimento di Unicredit sia -3% e quello di Eni sia -4% è uguale al prodotto delle due probabilità allora queste sono indipendenti. È difficile immaginare che siano indipendenti l’una dall’altra perché sono trattate sullo stesso mercato. Però se fosse indipendenti prenderei direttamente il prodotto delle univariate (prodotto delle singole probabilità).) MODELLI DI VARIABILI ALEATORIE INTRODUZIONE - Distribuzioni di probabilità utili per descrivere, analizzare o simulare i processi del mondo reale; - Distribuzioni teoriche si adattano a dati storici o corrispondono ad ipotesi sulla natura del processo; - Vengono presentati alcuni modelli di distribuzioni di variabili aleatorie che compaiono molto frequentemente in natura e in diversi campi applicativi; - Si distingue tra distribuzioni di probabilità discrete e continue. (Noi come t student, questo studente possiamo creare la nostra variabile casuale, ad oggi ve ne sono tante e quelle già presenti possono essere di nostro gradimento. Queste variabili aleatorie si distribuiscono in discrete e continue. L’esempio più semplice è la Bernoulli.) DISTRIBUZIONE DI BERNOULLI – V.C. DISCRETA - prova "dicotomica", il cui esito può essere solo successo o insuccesso - probabilità di successo p - variabile casuale X tale che X = 1 nel caso di successo e X = 0 nel caso di insuccesso - funzione di probabilità: 𝑝, 𝑥=1 = 𝑝 𝑥 (1 − 𝑝)1−𝑥 , 𝑥 = 0 ; 1 𝑝 (𝑥 ) = 𝑃 (𝑋 = 𝑥 ) = 𝑓 (𝑥 ) = { 1 − 𝑝, 𝑥=0 -

valore atteso e varianza

𝐸 (𝑋 ) = 1 × 𝑝 + 0 × (1 − 𝑝 ) = 𝑝 𝑉𝑎𝑟(𝑋) = 𝑝(1 − 𝑝) 8

(L’esito di una Bernoulli può essere 1 con probabilità di successo p e 0 con probabilità di successo 1-p. La funzione di probabilità è uguale allora a 𝑝 𝑥 (1 − 𝑝)1−𝑥 dove x può avere solo due valori zero e uno. Le variabili di questo tipo possono essere usate in finanza nel mercato del credito per stabilire se il cliente è solvente o insolvente.) DISTRIBUZIONE BINOMIALE – V.C. DISCRETA - somma di n variabili casuali indipendenti aventi distribuzione di Bernoulli con probabilità di successo costante p - numero di successi in n prove indipendenti ripetute nelle stesse condizioni - funzione di probabilità: 𝑛 𝑥 = 0; … ; 𝑛 𝑝(𝑥) = 𝑃 (𝑋 = 𝑥) = ( ) 𝑝 𝑥 (1 − 𝑝)𝑛−𝑥 , 𝑥 (Con la distribuzione binomiale ci riferiamo a più imprese, con la Bernoulli a solo una. Questo mi permette di calcolare la probabilità che su 1000 imprese indipendenti solo 3 vadano in fallimento. Per trovare questa probabilità devo eseguire la formula.) DISTRIBUZIONE BINOMIALE – V.C. DISCRETA - valore atteso e varianza

𝐸 (𝑋) = 𝑛𝑝 𝑉𝑎𝑟(𝑋) = 𝑛𝑝(1 − 𝑝) - Al crescere di n la funzione di probabilità binomiale tende ad assumere la forma di una Normale con media np e varianza np(1 − p); - Se 𝑋1 e 𝑋2 sono indipendenti con 𝑋1 ~ 𝐵𝑖𝑛(𝑛1 , 𝑝), 𝑋2 ~𝐵𝑖𝑛(𝑛2 , 𝑝), allora la loro somma vale 𝑋1 + 𝑋2 ~ 𝐵𝑖𝑛(𝑛1 + 𝑛2 , 𝑝). (La binomiale è una variabile casuale discreta dove il valore atteso è 𝑛𝑝 e la varianza è 𝑛𝑝(1 − 𝑝). Al crescere di n la distribuzione Binomiale tende ad assomigliare ad una Normale.) DISTRIBUZIONE BINOMIALE VS NORMALE (Nel primo caso abbiamo una binomiale (30, 0, 5). Il cui valore atteso è np quindi 15. L...


Similar Free PDFs