TEST PARAMETRICI E NON PARAMETRICI PDF

Title TEST PARAMETRICI E NON PARAMETRICI
Author Alessandra Rita Scalisi
Course Statistica sociale
Institution Università degli Studi di Catania
Pages 4
File Size 135.2 KB
File Type PDF
Total Downloads 35
Total Views 130

Summary

Download TEST PARAMETRICI E NON PARAMETRICI PDF


Description

TEST PARAMETRICO Si definisce test parametrico un test statistico che si può applicare in presenza di una distribuzione libera dei dati, o comunque nell'ambito della statistica parametrica. Ciò avviene effettuando un controllo delle ipotesi sul valore di un parametro, quale la media, la proporzione, la deviazione standard, l'uguaglianza tra due medie, etc. E CHE COS’E’ LA VERIFICA DI IPOTESI? La verifica di ipotesi consiste nel formulare un’ipotesi sui parametri dell’universo e verificarne la sua validità; l’ipotesi che vogliamo sottoporre a verifica è detta ipotesi di base o ipotesi nulla e viene indicata con H0, (qualcuno mi dice qualcosa, questo qualcuno si chiama H0 cioè che l’altezza media della popolazione è di 170cm. E sulla base di che cosa? Non ci interessa come siamo arrivati al parametro! L’importante è porre H0 a verifica contro un’ipotesi alternativa, H1!) Se non risulterà valida l’ipotesi nulla H0, allora lo sarà l’ipotesi alternativa H1 L’ipotesi alternativa può essere bilaterale o unilaterale. Al contrario un test non parametrico non presuppone nessun tipo di distribuzione. Pur essendo applicabile solo in presenza di distribuzioni di tipo normale, i test parametrici risultano più attendibili rispetto a quelli non parametrici in quanto associati ad una maggiore probabilità di riuscire a rifiutare un'ipotesi statistica errata. Infatti una volta formulata l'ipotesi il passo successivo è quello di verificarla e uno dei metodi per decidere se rifiutare l'ipotesi (nulla) si basa sul concetto di valore-p. Il valore-p rappresenta dunque la possibilità di rifiutare l'ipotesi nulla quando in realtà questa è vera e più questo valore è piccolo più si sceglie di rifiutare l'ipotesi fornendo il livello di significatività critico del test (probabilità massima tollerata di rifiuto), scendendo al di sotto del quale la decisione cambia da rifiuto a accettazione. Tra i test parametrici principali troviamo il: test di Student (test t) a campioni dipendenti e a campioni indipendenti test di Fisher (test F) test sulla Normale standardizzata N(0,1) (test Z) ESEMPIO: T di Student La distribuzione T di Student viene usata in statistica per stimare il valore medio di una popolazione quando sia disponibile un campione di piccole dimensioni (meno di 30 elementi) e i valori sono distribuiti come una variabile casuale normale. Se il campione è più numeroso le distribuzioni gaussiana e quella di Student differiscono di poco, pertanto è indifferente usare una o l'altra. Una volta formulata una congettura nei confronti del vero valore assunto dalla media aritmetica della variabile aleatoria, per verificare la validità si potrà ricorrere ad un sistema di ipotesi del tipo: ⁅ H0 m=m0 ⁅H1 m=m1 Si basa sulla distribuzione t di Student.

DOMANDA ESAME: LE FASI DI UN TEST NON PARAMETRICO Per test statistico si intende il giudizio di conformità probabilistica fra campione e popolazione e serve per decidere se alcune situazioni ipotetiche concernenti la popolazione appaiono ragionevoli o meno alla luce dell’evidenza empirica. Si dicono non parametrici (o indipendenti dalle distribuzioni) i test che non necessitano di particolari condizioni per essere applicati. I test non parametrici sono quei test di verifica d'ipotesi usati nell'ambito della statistica non parametrica. Non è necessario che il campione contenga più di un certo numero di elementi Non è necessario che le grandezze confrontate seguano una certa distribuzione Non hanno come scopo la stima dei parametri della popolazione sulla base delle caratteristiche del campione QUANDO SI COSTRUISCE UN TEST NON PARAMETRICO SI PARTE INNANZITUTTO 1. nel formulare un’ipotesi statistica, SPECIFICARE LE IPOTESI DA TESTARE: Ho e H1, ossia quell’affermazione riguardante i parametri del modello di probabilità o il processo che ha generato le osservazioni campionarie. Nel corso dello svolgimento del test bisognerà dimostrare l’ipotesi e verificare la sua validità. L’ipotesi che vogliamo mettere a verifica è quella di base o nulla Ho. NON TESTO IL PARAMETRO MA LA DISTRIBUZIONE! (L’obiettivo è dunque verificare la plausibilità di un’affermazione (ipotesi statistica) riguardante la popolazione, ovvero il parametro da cui dipende o il modello di probabilità, sulla base dell’evidenza campionaria.) 2. Successivamente aver creato il sistema di ipotesi si deve scegliere il test statistico che si deve utilizzare in base al problema che si deve affrontare PER VERIFICARE LA POTENZA E L’EFFICACIA DEL TEST. 3. Si stabilisce un livello di significatività (di solito a=0,05), nel senso che, dire in base a cosa accetterò o rifiuterò la mia ipotesi. Ossia, lo 0.05 sta per la probabilità di sbagliare (la probabilità di errore che mi accollo di sbagliare) Nelle tavole statistiche i livelli di significatività sono indicati come AREA DI RIFIUTO. 4. Capire che distribuzione campionaria abbiamo davanti e quindi se la popolazione è piccola o grande e di conseguenza a quale tavola bisogna far riferimento. 5. Infine la regione critica con la decisione da prendere per il test. Qui la cosa importante sarà confrontare i risultati che daranno i test dopo aver applicato le relative formule e dopo aver trovato il valore in base al livello di significatività e i gdl. Dopo averli confrontati sulla curva della normale e segnato le aree di rifiuto e quella di accettazione, DEFINIRE SULLA BASE DELLA STATISTICA SCELTA LA REGIONE DI RIFIUTO PER Ho E I VALORI DELLA STATISTICA DI PROBABILITÀ ˂ a QUANDO Ho È VERA. Come capire se accettare l’ipotesi iniziale o rifiutarla? Se il valore cade nella regione di rifiuto, si decide di rifiutare Ho, altrimenti si decide di non rifiutare Ho. La risposta del test sarà sempre: “RIFIUTO Ho” o “NON RIFIUTO Ho”.

TEST KOLMOGOROV-SMIRNOV Il test di Kolmogorov-Smirnov è un test non parametrico che verifica la forma delle distribuzioni campionarie. Può essere utilizzato per confrontare un campione con una distribuzione di riferimento oppure per confrontare due campioni. Il test di Kolmogorov-Smirnov per la bontà dell’adattamento, per la sua ampia utilizzazione è proposto su molti testi di statistica applicata. Esso può essere utilizzato - sia per dati misurati su una scala ordinale discreta o dati continui raggruppati in classi, - sia per dati continui, che possono essere misurati con una scala di rapporti oppure a intervalli oppure ordinale. In questo test, si richiede una condizione aggiuntiva, rispetto al test chi quadrato: i gruppi non possono essere qualitativi, ma devono essere ordinati secondo una scala di tipo almeno ordinale. L’ipotesi nulla è ancora H0: la distribuzione osservata e quella attesa sono uguali contro l’ipotesi alternativa H1: le due distribuzioni divergono, senza per questa indicare quale possa essere la distribuzione teorica più vicina alla distribuzione osservata. Il confronto viene realizzato mediante il valore di massima divergenza tra le due distribuzioni cumulate. Successivamente, la tabella dei valori critici indica la probabilità di trovare una divergenza pari o superiore a quella calcolata, qualora fosse vera l’ipotesi nulla. Il test si fonda sulla logica che, se un campione fosse estratto da una determinata distribuzione teorica o attesa, la sommatoria della distribuzione osservata dovrebbe discostarsi dalla sommatoria della distribuzione attesa solo per fattori casuali, di piccola entità. La statistica del test a una coda è calcolata come la distanza tra la funzione di ripartizione di riferimento e la funzione di ripartizione empirica del campione. La statistica del test a due code è calcolata come la distanza tra le funzioni di ripartizione empiriche dei due campioni. È applicabile a dati per lo meno ordinali. Nella sua formulazione esatta prevede che le variabili siano continue. Non richiede di per sé alcuna ipotesi sulla distribuzione campionaria (salvo nel caso a un campione, in cui viene testata una distribuzione a propria scelta). Confronto dati quantitativi Si suddivide l’intervallo di variazione in classi di frequenza di uguale ampiezza. Ad ogni classe si attribuiscono le frequenze cumulative del primo e del secondo campione. Si procede alla differenza fra le frequenze classe per classe. Si considera la differenza maggiore in valore assoluto D Si ricorre alle apposite tavole per la D Se D supera il valore critico tabulato al livello di significatività prescelto, la differenza fra i campioni è significativa.

Ad esempio se vogliamo confrontare l’età di due gruppi di malati (entrambi n=10) Patologia A B

Età 25 27 34 45 62 78 19 33 17 49 55 34 40 47 65 67 52 42 60 75

n 10 10

Si suddivide l’intervallo di variazione in classi di frequenza uguali: Classi 15-24 25-34 35-44 45-54 55-64 65-74 75-84

Frequenze cumulative A B 2 6 1 6 3 8 5 9 7 9 9 10 10

Differenza (val. ass.) 2 5 3 3 2 -

La massima differenza è D=5. Sulla tavola, per numerosità n=10, si trova per 5% il valore 6. Quindi il livello di significatività non viene raggiunto. Esistono due tavole per il test Kolmogorov-Smirnov: per campioni con n 40 (con numerosità anche diverse)....


Similar Free PDFs