Appunti - Statistica psicometrica Prof. Bolzani PDF

Title Appunti - Statistica psicometrica Prof. Bolzani
Course Statistica psicometrica
Institution Università di Bologna
Pages 92
File Size 2.9 MB
File Type PDF
Total Downloads 111
Total Views 167

Summary

Questo riassunto è un unione tra appunti presi a lezioni e libri di testo assegnati ai fini dell'esame. ...


Description

Psicometria (prof Bolzani) -Introduzione: Nella nostra esperienza quotidiana abbiamo spesso a che fare con fenomeni variabili e teniamo conto di questa casualità. La formazione logica e matematica del problema statistico ha lo scopo di oggettivare il modo con cui valutiamo l’incidenza del caso. Per esempio: ognuno di noi, quando valuta il tempo necessario a compiere un determinato viaggio, esegue una valutazione statistica. In base al tempo di percorrenza di precedenti viaggi, valuta un tempo medio necessario per il caso in esame e tiene conto che tale durata può variare per effetto di un maggiore o minore traffico ecc… In quest’operazione è possibile distinguere due fasi: 1) la prima comprende la valutazione del tempo medio di percorrenza e ci fornisce una misura sintetica del fenomeno; 2) la seconda riguarda una stima di quanto il caso possa incidere sulla reale durata del percorso. Anche nella formalizzazione statistica è conveniente mantenere questa distinzione dal momento che queste due fasi forniscono due livelli di informazione. La statistica è divisa in: -1) statistica descrittiva: fornisce una serie di parametri (x es: la media) che servono a descrivere sinteticamente fenomeni troppo complessi per essere descritti con precisione. Quindi si occupa di descrivere una realtà complessa/molteplice attraverso pochi parametri che hanno alcune caratteristiche che servono per estrarre da molti dati sintetiche informazioni, quindi cerca di sintetizzare una realtà complessa. Per esempio: per descrivere l’altezza degli individui appartenenti a una numerosa popolazione risulterebbe troppo complesso elencare l’altezza di ognuno pertanto si preferisce calcolare la media di tale altezza. -2) statistica inferenziale: dà invece un tipo diverso di informazione. Fornisce una prova sperimentale di un’idea partendo da parametri descrittivi e valutando l’incidenza del caso, permettendo così di giudicare l’affidabilità dei parametri stimati e i limiti entro cui possiamo aspettarci fluttuazioni casuali. Essa costituisce un passo successivo rispetto alla statistica descrittiva e risulta indispensabile nella verifica sperimentale di idee scientifiche. Per esempio: non può considerarsi sufficiente la constatazione che l’altezza media è andata crescendo negli ultimi decenni. Dobbiamo verificare che questa variazione è oltre quello che ci si potrebbe aspettare per effetto di oscillazioni casuali e costituisce pertanto una reale tendenza. Quindi la statistica inferenziale fa riferimento ai test statistici ed è il procedimento per cui si determinano le caratteristiche di una popolazione grazie all'osservazione di una parte di essa (detta campione). Tenta di determinare da alcuni risultati sperimentali una legge generale che riguarda una certa ipotesi di partenza, quindi cerca dai risultati di un esperimento di arrivare ad una conclusione tenendo conto degli errori di misura. La statistica descrittiva e la statistica inferenziale sono due momenti distinti ma complementari per effettuare un test statistico. La statistica descrittiva serve alla statistica inferenziale come punto di partenza. Entrambe gli approcci fanno uso degli stessi metodi e della stessa visione della casualità. Quello che li differenzia è lo scopo che si prefiggono e il tipo di messaggio che intendono trasmettere, in sostanza: attraverso la statistica descrittiva si intende solamente descrivere un fenomeno mentre la statistica inferenziale tende a fornire una prova sperimentale di un’idea in base ai dati raccolti. I test statistici si dividono in: 1) test parametrici: cioè test basati sulla distribuzione normale infatti un test parametrico è un test statistico che si può applicare in presenza di una distribuzione libera dei dati, o comunque nell'ambito della statistica parametrica. Ciò avviene effettuando un controllo delle ipotesi sul valore di un parametro, quale la media, la proporzione, la deviazione standard, l’uguaglianza tra due medie ecc; 2) test non parametrici: che non presuppongono nessun tipo di distribuzione nota e non necessitano di particolari condizioni per essere applicati.

Fino alla legge relativistica e alla fisica quantistica di Plank le scienze si dividevano fra scienze esatte e scienze inesatte: le prime erano considerate le migliori in quanto nella fisica classica era possibile dimostrare in modo deterministico le proprie ipotesi. L’approccio deterministico, attribuito appunto alle scienze esatte e teoriche come anche la matematica, parte da un’ipotesi iniziale ed attraverso passaggi logici dimostro una certa affermazione corretta. L’approccio deterministico si basa sulla legge deterministica secondo la quale vi è una relazione di causa ed effetto univoca (corrispondenza univoca, cioè il risultato è sempre quello) fra due eventi. Un’idea dimostrata sperimentalmente, ad esempio, nella fisica classica, è considerata vera. A partire dalle nuove scoperte in fisica subatomica del comportamento delle particelle subatomiche nacque un importante dibattito su cosa fosse la scienza, dal momento che la fisica sembrava essere affetta dalla stessa imprecisione che riguardava le scienze inesatte come la psicologia o la sociologia. K. Popper formulò il principio di non falsificazione, oggi adottato dalla comunità scientifica, che afferma che non è possibile dimostrare vero un assunto (teoria/ipotesi) scientifico, ma che esso può essere solo falsificato, perciò lo scopo della scienza è produrre leggi generali falsificabili. La scienza sperimentale si basa sull’approccio probabilistico, dove si afferma che io non posso dimostrare un assunto in modo deterministico, ma posso dimostrare che cambiando un parametro cambio il risultato. Nella fase sperimentale diventa importante valutare quindi l’incidenza degli errori di misurazione e la variabilità casuale: per far ciò si ricorre alla statistica. Lo scopo della statistica è stimare l’incidenza della variabilità casuale in modo coerente affinché tutti i ricercatori possano riprodurre in laboratorio lo stesso esperimento. L’approccio probabilistico si basa sulla legge probabilistica, la quale fa, infatti, corrispondere un evento a un insieme di possibili eventi quindi implica che un risultato sperimentale debba essere anche interpretato. Parla della corrispondenza fra un evento ed un insieme di possibili eventi cioè non c’è una relazione univoca ed esatta tra causa ed effetto. L’esperimento ci da la certezza che la legge funziona. Cambio il parametro e cambia il risultato. In psicologia le variabili in gioco sono tantissime per cui decade il metodo deterministico. E’ necessaria una convalida sperimentale. La scienza sperimentale si occupa della legge probabilistica e quindi utilizza un approccio probabilistico e sperimentale mentre solo le scienze esatte e teoriche come per esempio la matematica si occupa della legge deterministica e quindi utilizza un approccio deterministico. Occorre operare una distinzione tra scienze esatte e scienze inesatte dal momento che non è più accettabile. La definizione di scienza esatta è andata in crisi all’inizio del 900 con la fisica quantistica (la quale ha stabilito l’inapplicabilità della legge della forza F= m x a alla fisica dell’atomo perché altrimenti gli elettroni cadrebbero nel nucleo). La riflessione epistemologica di K. Popper ha mostrato il concetto che la scoperta scientifica non può avere come oggetto la verità: poiché non possiamo avere riscontro assoluto della verità pertanto non possiamo mai verificarla. Il concetto di verità può anche non essere mai accettato e quindi Popper presuppone che la materia proceda secondo leggi, quindi la scienza produce delle ipotesi di funzionamento della natura. Se le leggi sono false deve esserci la possibilità di falsificarle. Quindi la scienza produce leggi generali falsificabili. Se si dà un’ipotesi che non può essere falsificata allora non è scienza. La religione per esempio non è una scienza. Oggi quindi la ricerca scientifica procede su base sperimentale (psicologia compresa). Ci sono due problemi fondamentali della 1)dimostrazione deterministica e 2)della dimostrazione sperimentale. 1) per quello che riguarda la dimostrazione deterministica, questa dimostrazione è fatta su una serie di postulati che precedono la dimostrazione, da cui si arriva a determinazioni esatte nella teoria. Un esempio: riguarda il teorema di Pitagora che dal punto di vista teorico è perfetto ma dal punto di vista pratico non lo è. Infatti se è vero che il quadrato dell’ipotenusa è uguale alla somma dei cateti ciò è vero in teoria, ma nella pratica non si può costruire esattamente questo triangolo perché non si può produrre una misurazione assoluta. Stessa cosa vale anche per il fatto che non posso portare due fogli di carta che abbiano la stessa misura in assoluto; se li misuro con uno strumento anche

raffinatissimo non saranno mai uguali. 2) Per quello che riguarda la dimostrazione sperimentale, questa dimostrazione procede per misura di certi fenomeni, l’elemento di base è la misura (di qualunque tipo x es: cm, mm …) di fenomeni legati alla legge che si sta studiando. Un esempio: la legge di Galileo sul periodo di oscillazione del pendolo, nella dimostrazione scientifica comporta la misura della lunghezza del braccio e del tempo. Quindi la dimostrazione sperimentale richiede la misura di certi parametri. Però c’è un problema fondamentale: che non esiste misura esatta, poiché essa ha sempre un certo grado di imprecisione dovuto non solo al fatto che a) gli strumenti di misura sono dotati di un errore , ma anche perché b) la misura stessa contiene un margine di errore. Possiamo ridurre, controllare l’incertezza del risultato ma non possiamo conoscere, misurare cose con una certezza assoluta. Quindi il problema fondamentale della dimostrazione scientifica/sperimentale è: a) stabilire quant’è l’errore di misura; b) valutare l’oscillazione causale. La produzione di conoscenza attraverso la dimostrazione sperimentale pone un problema tipico di ogni misura: la variabilità casuale del parametro sperimentale. Solo apparentemente vi sono campi in cui la dimostrazione sperimentale è inequivocabile. La crisi della scienza fisica legata alla scoperta che le leggi della meccanica classica non sono direttamente applicabili nel campo estremamente piccolo, quale quello dell’atomo, dimostra che la “precisione” delle leggi fisiche è valida solo in un campo macroscopico, dove la variabilità casuale può essere contenuta entro valori estremamente limitati rispetto al fenomeno in esame. Da un punto di vista teorico siamo naturalmente portati a credere che la natura sia regolata da poche elementari leggi deterministiche, che sia possibile eseguire misure con una precisione illimitata e che molti parametri varino con continuità, cioè possono assumere qualsiasi valore all’interno di un certo intervallo. Da un punto di vista sperimentale possiamo eseguire solamente misure caratterizzate da valori non continui e dotate di un errore spesso non trascurabile. E’ stato inoltre dimostrato che la precisione raggiungibile ha un limite definito. la scienza contemporanea nelle sue diverse branche procede principalmente per dimostrazioni sperimentali e ha quindi la necessità di affrontare il problema della variabilità casuale. La sua riduzione non può tuttavia arrivare fino all’eliminazione del problema. Non resta quindi che trovare un metodo che, tenendo conto di questa variabilità, permetta di effettuare dimostrazioni sperimentali con un sufficiente e quantificabile grado di certezza. Lo scopo della statistica è quello di stimare, nelle diverse situazioni sperimentali, l’incidenza della variabilità casuale in un modo coerente e comune a tutti i ricercatori e di rendere quindi scambiabili le conoscenze ottenute nei diversi laboratori. Questo scopo viene raggiunto definendo parametri e procedure che forniscono i limiti entro i quali è presumibile che si muova l’oscillazione casuale e al di fuori dei quali è estremamente improbabile trovare valori dovuti alla semplice oscillazione casuale. Il test statistico consiste nel provare che le differenze trovate sperimentalmente non sono attribuibili solo al caso e che quindi sono da imputare alle diverse condizioni sperimentali in cui sono stati rilevati i dati. - Elementi di teoria degli insiemi: Per il calcolo delle probabilità è comodo l’uso della simbologia e dei formalismi introdotti dalla teoria degli insiemi. Per insieme si intende l’aggregazione di tutti gli oggetti che hanno una certa caratteristica, che soddisfano una certa condizione. Per esempio: l’insieme dei possibili risultati nel lancio di un dado sono (1,2,3,4,5,6) oppure l’insieme dei risultati pari è costituito da (2,4,6). L’insieme di tutti gli eventi possibili è detto insieme universo ed è indicato con Ω . L’insieme che non contiene nessun elemento è detto insieme vuoto ed è in genere indicato con ⊘ . Si definisce insieme complemento di A l’insieme che ~ contiene tutti gli elementi eccetto gli elementi di A e viene in genere indicato con A . Se A è ~ l’insieme dei risultati pari nel lancio di un dado (2,4,6), il complementare A sarà composto da tutti gli elementi che non appartengono ad A (1,3,5). Il complemento del complemento di A è naturalmente l’insieme A. Il complemento dell’insieme universo Ω è l’insieme vuoto ⊘ poiché se l’insieme universo contiene tutti gli elementi, il suo complemento dovrà contenere nessun elemento. Si definisce insieme intersezione di due insiemi A e B, e si indica con A ∧ B

l’insieme che contiene gli elementi che appartengono sia ad A sia ad B. Due insiemi si dicono disgiunti se non hanno elementi in comune, cioè se la loro intersezione è l’insieme vuoto. Se gli elementi di B sono tutti contenuti nell’insieme A la loro intersezione coincide con l’insieme B. Si definisce insieme unione di due insiemi A e B l’insieme che contiene sia gli elementi di A sia quelli di B. Esso viene indicato con A ⋁ B e risulta composto da tutti gli elementi che appartengono ad A o a B o a entrambi, cioè alla loro intersezione. L’unione dei due insiemi A (2,4,6) e B (1,2,3) è l’insieme C (1,2,3,4,6) da cui rimane escluso il solo elemento 5 che non appartiene né ad A né a B né ovviamente alla loro intersezione. -Definizioni di probabilità: Sebbene il concetto di probabilità possa essere considerato un concetto intuitivo, non è semplice fornire una definizione che comprenda tutti i campi in cui lo applichiamo, e che nello stesso tempo sia matematicamente corretta e coerente. L’affermazione che un fenomeno è più probabile di un altro viene comunemente utilizzata e questo porta a pensare che ognuno di noi ha una certa idea di probabilità. Per poter formulare una valutazione quantitativa della probabilità è tuttavia necessario darne una definizione precisa. Esistono alcune definizioni di probabilità e nessuna di queste viene universalmente riconosciuta come valida. Naturalmente i risultati che si ottengono con ognuna di queste definizioni sono quasi sempre gli stessi anche se la logica che li supporta è spesso molto diversa. Se ad un dato evento non corrisponde un determinato e preciso effetto allora ad un evento possono succedere (cioè venire dopo) diversi effetti i quali tra di loro hanno diverse probabilità. Ho bisogno quindi della probabilità che non è altro che il parametro fondamentale dell’oscillazione casuale, cioè dato un certo evento ad esso può seguire un certo effetto ognuno con diverse probabilità. Abbiamo diverse definizioni della probabilità: 1) la prima detta definizione classica è quella che più frequentemente viene utilizzata nel calcolo della probabilità anche se da un punto di vista strettamente logico è per alcuni aspetti criticabile. Questa definizione afferma che: dato un insieme di eventi equiprobabili, cioè aventi la stessa probabilità di verificarsi, la probabilità di un evento A ( P(A) ) è data da

( numero di eventi favorevoli ) (numero dieventi possibili) Ovviamente questa definizione è valida se e solo se gli eventi sono equiprobabili cioè hanno la stessa probabilità di verificarsi. Questa definizione però non è corretta, infatti ha un problema: il fatto che la definizione classica è utile in pratica ma logicamente non corretta, poiché dal momento che gli eventi devono essere equiprobabili, questo rende la definizione tautologica perché la necessità dell’equiprobabilità rende porta a una condizione iniziale che presuppone il concetto di probabilità prima che questo venga definito. Per questo motivo la definizione classica non è considerata formalmente corretta, anche se a essa molto spesso ci si rivolge per il calcolo materiale del valore di probabilità dell’evento. 2) la seconda definizione viene nominata definizione frequentista, la quale afferma che: la probabilità di un evento è la frequenza con cui esso si presenta in un numero molto elevato di prove effettuate nelle stesse condizioni. Una volta al posto della parola “elevato” si utilizzava il termine “infinito” ma è stato sostituito perchè non si aveva e non si ha una definizione di infinito chiara e assoluta. Questa definizione è legata a un concetto intuitivo di probabilità secondo cui gli eventi più probabili sono quelli che ci dobbiamo aspettare più frequentemente. Per esempio: se è molto probabile che in una città piova ci aspettiamo che i giorni di pioggia in questa città siano numerosi, tendiamo cioè a identificare intuitivamente maggior probabilità con maggior frequenza. Questa teoria però non è esente da critiche che riguardano il numero di prove da considerare sufficienti e il senso della definizione nei casi in cui la ripetizione indefinita dell’evento è priva di senso comune. Basti pensare all’applicazione di questa definizione alla probabilità che l’universo sia nato dall’esplosione di un’unica massa estremamente concentrata P ( A )=

oppure consista in un insieme di materia che alternativamente si dilata e si comprime. Questa definizione è falsa perché presenta problemi di due nature differenti: a) il primo è un problema di natura pratica, poichè la probabilità che lanciando moneta bilanciata esca testa e la probabilità che esca croce non è esattamente ½. Infatti se ripetiamo il lancio di una moneta un numero di qualunque volte non ci aspetteremo di trovare esattamente tante teste quante croci. Troveremo una frequenza vicino al 50 % ma non esattamente uguale a questo valore. Quindi è un evento estremamente raro ottenere che la frequenza in un numero elevato di prove coincide con la probabilità e perciò non è vero che la frequenza coincide con la probabilità; b) il secondo è un problema di natura teorico dove la definizione frequentista appare inaccettabile perché va contro la una legge importantissima per la probabilità, la “Legge dei grandi numeri” ,la cui prima formulazione risale a Bernoulli, afferma che al crescere del numero delle prove la probabilità che la differenza tra la probabilità dell’evento e la sua frequenza diventi trascurabile tende a 1. In base a questa legge cioè ci dobbiamo aspettare che al crescere del numero delle prove la frequenza di un evento “assomigli” sempre più alla sua probabilità di accadere. Questo concetto, sembra fornire un supporto alla teoria frequentista, in realtà bisogna osservare che vi sono due impedimenti all’identificazione completa della probabilità con la frequenza. 1) Il primo riguarda il fatto che la legge dei grandi numeri non dice che al crescere delle prove la probabilità diventa certezza ma solo che tende al valore 1. E questo, non coincide con la certezza. Frequenza e probabilità tendono ad avvicinarsi con una probabilità molto elevata ma non coincidono mai, nemmeno con un numero elevato di prove. La legge viene espressa con la seguente formula: P (|p ( A ) −f ( A )|< ε ) →1 dove p(A) è la probabilità dell’evento A, f(A) la sua frequenza, ε una costante qualsiasi > 0. 2) Inoltre la legge non sostiene che la differenza tende a divenire trascurabile. Anche questo coincide con l’intuizione se non con l’esperienza di molti: al crescere del numero delle prove la frequenza diventa sempre più vicina alla probabilità dell’evento senza identificarsi con essa. Nessuno si aspetta che lanciando molte volte una moneta il numero di teste eguagli esattamente il numero delle croci ma solo che si avvicini molto a questo valore. Sulle leggi dei grandi numeri sono basate le illusioni dei giocatori del lotto i quali credono che un numero in ritardo ha ...


Similar Free PDFs