Anova unifactorială - pentru eșantioane independente & pentru măsurători repetate PDF

Title Anova unifactorială - pentru eșantioane independente & pentru măsurători repetate
Author Beatrice Iwasaki
Course Psihologie Experimentală
Institution Universitatea Babeș-Bolyai
Pages 35
File Size 2.2 MB
File Type PDF
Total Downloads 85
Total Views 148

Summary

Anova unifactorială
- Clarificări conceptuale
- Recapitulare - varianță
- Testul T Fisher
- Comparații complexe
- pentru eșantioane independente & pentru măsurători repetate
- Mărimea efectului & puterea statistică...


Description

ANOVA unifactorială Statistică inferențială Cohen 2014_Capitolul 12_Ro.pdf

cuprins

Analiza de Varianță (ANOVA) Unifactorială utilizată pentru a testa dacă trei sau mai multe medii ale populației sunt egale; modelele ANOVA oferă o modalitate eficientă de a compara mai multe grupuri & reprezintă o soluție care permite controlul statistic alescaladării erorii de tip alfa reprezintă o tehnică de generalizare a asumpțiilor testului t de la 2 eșantioane independente la 3 sau mai multe eșantioane — este o extensie a testului t pentru două eșantioane independente. este un model de analiză mai general decâttestelt sau z(permite analiza datelor provenite dindesignuri complexe, unifactorialsau bifactorial, dar și a celor colectate în cadruldesignurilorde bază). testul ANOVA oferă aceleași rezultateca și testul t în cazuldesignurilorde bază. implică divizarea varianței în varianța grupurilor/efectului (between groups variance) — datorată intervenției/condiției experimentale — și varianța erorii (within groups variance) — datorată diferențelor individuale și erorii. se folosește de statistica/testul F și de distribuția F în ANOVA unifactorial, modelul F-test va testa egalitatea tuturor mediilor grupurilor în același timp. dacă în acest sens se obține un test semnificativ, atunci următorul nostru obiectiv este să identificăm unde și care sunt diferențe specifice.

Tabelul ANOVA

Clarificări conceptuale variabila de răspuns (engl. response variable) = variabila numerică utilizată în comparațiile dintre medii (i.e. variabilă dependentă);

variabila factor = variabila categorială utilizată pentru a defini grupurile (i.e. variabilă independentă); de obicei denumite k eșantioane (grupuri)

De ce se numește "unidirecțional" (engl. One-Way) ? fiecare valoare este clasificată exact într-un singur mod (după un singur factor) exemplu: comparații după sex, rasă, partid politic, culoare etc.

Ipotezele testului ANOVA One-Way pot fi formulate astfel: H0 Ipoteza nulă): Nu există diferențe semnificative între mediile eșantioanelor analizate — Toate mediile sunt egale. H1 : Există diferențe semnificative între mediile eșantioanelor analizate. — Cel puțin una dintre medii este diferită.

Testul ANOVA unifactorial nu testează dacă o anumită medie este mai mică decât alta, ci doar dacă toate sunt egale sau cel puțin una este diferită (fără să se știe care).

Asumpțiile testului ANOVA unifactorial  normalitate rezidualele sunt distribuite în mod normal (fără skewness sau parțialitate) evaluată cu ajutorul: testului Shapiro-Wilk testul Kolmogorov graficelor de tip QQ  independența grupurilor analizate eșantionare aleatorie

 homoscedascitatea — egalitatea (“omogenitatea”) varianțelor eșantioanelor evaluată cu ajutorul testului lui Levene

Regulă generală: Raportul dintre cea mai mare și cea mai mică abatere standard trebuie să fie mai mic de 21.

Mărimea Efectului Cele mai des utilizate metrici de stabilire a mărimii efectului pentru testul ANOVA Epsilon Squared ( ε^2 ) acest indicator conține cea mai mică eroare dintre toate cele trei specificate. Eta Squared ( η^2 ) acest indicator are cea mai mică abatere standard dintre toate cele trei specificate. Cu toate acestea, nu reprezintă, neapărat, un bun estimator (i.e., poate fi observată o cantitate considerabilă de eroare atunci când dimensiunea eșantionului este redusă). Omega Squared ( ω^2 ) acest indicator are cel mai mic RMSE (engl., Root Mean Squared Errors ), pentru toate condițiile.

De ce nu putem folosi teste t? ⇒ apare fenomenul de escaladare a erorii alfa. alfa experimental (eng. experiment-wise, EW probabilitatea ca un experiment sa produca oricare eroare de Tip I recapitulare — Formula pentru scorul t:

Când testele t sunt efectuate liber într-un experiment multigrup, alfa experimental va fi mai mare decât alfa folosit pentru fiecare test t. Mai mult de atât, alfa experimental o sa crească exponențial pe măsură ce numărul de grupuri va crește datorită numărului ridicat de oportunități de a comite o eroare de Tip I. fenomenul de escaladare a erorii alfa

Chiar dacă doar unul din cele n teste t duce la o eroare de Tip I, putem spune că „experimentul” a produs o eroare de Tip I.

exemplu ilustrativ Să presupunem că un cercetător repetă același experiment ineficient pentru două grupuri (µ1µ2 de 21 de ori. Care este șansa ca rezultatele să obțină semnificativitate 1 dată sau de mai multe ori (care este șansa ca cercetătorul să comită cel puțin o eroare de Tip I ? Intrebarea este prea delicata pentru a raspunde direct – trebuie sa aflam probabilitatea de a comite o eroare de Tip I si apoi probabilitatea de a comite doua erori de Tip I pana la probabilitatea de a comite un total de 21 erori. Este

mai usor de aflat probabilitatea de a nu comite erori de Tip I, substragand acea probabilitate de la 1.0, ne ofera probabilitatea de a comite una sau mai multe erori de Tip I. Incepem de la probabilitatea de a nu comite o eroare de Tip I doar pentru un singur test t. Daca H0 este adevarata, si alfa=.05, probabilitatea de a nu comite o eroare de Tip I este 1.05.95. Acum trebuie sa gasim probabilitatea de a nu comite erori de Tip I de 21 ori de la rand. Daca fiecare dintre cele 21 de teste t sunt independente unele de celelalte, (experimentul este repetat cu noi probe random de fiecare data), probabilitatile sunt multiplicate (dupa regula de multiplicare descrisa in Capitolul 4, Sectia C. Astfel probabilitatea de a nu comite o eroare de Tip I in 21 de ocazii independente una de cealalta este .95*.95*.95 intr-un total de 21 de ori sau .95 ridicat la puterea 21 care este egal cu .34. Deci, probabilitatea de a face cel putin o greseala de Tip I printre 21 de teste este 1 .34 .66 sau aproape doua treimi. Drept consecință, apare o șansă mai mare de 0.05 de a obține măcar un rezultat semnificativ statistic (dar nesemnificativ practic) chiar și asumând faptul că ipoteza nulă este adevărată. eroarea alfa — alfa cumulat:

↳ nu se aplică pentru teste t multiple în cadrul aceluiași experiment cu eșantioane multiple pentru că, în acel caz, testele t nu sunt toate independente reciproc — nu ne dă o idee asupra a cât de mare poate fi alfa EW când multe teste t sunt aplicate. j = numărul de teste independente.

k = numărul modalităților variabilei independente

Calculul lui alfa EW ar trebui să clarifice de ce nu este acceptabil să aplici mai multe teste t fără să aplici niște proceduri statistice pentru a reduce alfa EW.

Alfa utilizat pentru fiecare test care urmează ANOVA poate fi numit alfa pe comparație sau alfa pc. Ajustarea alfa pc este o formă de a reduce alfa EW. exemplu Eroarea alpa pentru comparație α c= 0.05 Eroarea alfa pentru întreg designul (experiment wise) α ew= 1 – 1αc)j

Problema prea multor teste t — Problema erorii de tip I & "fishing for a finding"

Factorii care influențează puterea testului F Mărimea efectului Numărul modalităților variabilei independente Omogenitatea eșantionului (măsurarea) Numărul de subiecți din grupe

În ce constă analiza surselor de variabilitate? Cât de diferit trebuie să fie F față de 1, pentru a spune că am detectat un”semnal”, un efect al unei itervenții? F poate fi mai mare decât 1 și în cazul în care efectul intervenției este 0,deoarece indivizi întâmplător ajung în grupe diferite (produc mici fluctuațiia mediilor). Pentru același motiv, F poate fi și mai mic decât 1. Trebuie să ne reprezentăm cum se comportă valorile F în cazul H0.  F =diferențe individuale+diferențe tratament=0/diferențe individuale H0µ1 µ1 µ1 µ1 F1

 F =diferențe individuale+diferențe tratament>0/diferențe individuale H1H0 este fals F>1

Cell Means Model

Modelul ANOVA de bază este bazat pe notațiile: Indicele „i” indică nivelul factorului Indicele „j” indică nr crt al observației din cadrul grupului Modelul relației cu cell means este bazat pe notaţiile: punctul — indică „suma” bara de sus — indică „medie” sau „împărțire la dimensiunea celulei / eșantionului” Y (cu bară sus) — media pentru toate observațiile Y i (cu bară sus) — media pentru observațiile de la nivelul i al factorului A. Uneori omitem „punctele” pentru concizie, dar sensul este același.

Avem un F semnificativ... Acum ce? Comparații complexe

când o comparație cuprinde 2 grupuri/medii de eșantioane — comparații între perechi (test t cu 2 eșantioane). când o comparație implică mai mult de 2 medii — comparații complexe. când comparațiile sunt planificate în avans, înainte de a rula un experiment cu eșantioane multiple — comparații planificate (a priori). nu implică același risc de a avea un alfa EW ca și comparațiile a posteriori. când comparțiile sunt alese după ce sunt observate datele — comparații post hoc (a posteriori).

Multiple comparisons

Testul t Fisher Cea mai simplă procedură pentru a-l menține pe alfa EW scăzut este de a nu permite efectuarea mai multor teste t decât dacă F-ul pentru one way ANOVA este semnificativ statistic. Procedura de a utiliza teste t doar în condițiile unui ANOVA semnificativ a fost inventată de Fisher 1951 — de aici și denumirea. Testele t sunt protejate, adică de obicei nu sunt derulate dacă ipoteza nulă este de fapt adevărată, deoarece un cercetător trebuie să obțină mai întâi un F semnificativ. Totodată, testele t sunt puțin diferite de testele t normale și mai au o putere statistică mai mare. Utilizarea lui sp pătrat indică faptul că asumăm omogenitatea varianței. Dacă asumpția omogenității varianței este validă pentru întregul experiment cu eșantioane independente, MSw este cel mai bun estimator al varianței commune și poate fi folosit în locul lui sp pătrat în formula anterioară. Mai specific, voi asuma că într-un experiment în care se compară performanța în anumite zile ale săptămânii (weekend vs zile lucrătoare), cumularea tuturor varianțelor eșantioanelor (adică toate zilele săptămânii) este o estimare mai bună al s pătrat decât cumularea varianțelor doar pentru cele două eșantioane care sunt comparate în testele t care urmează după ANOVA (adică doar varianța pentru weekend și zile lucrătoare). Dacă omogenitatea varianțelor nu poate fi respectată, nu există justificare pentru a utiliza MSw / MSE (mean square Dacă omogenitatea varianțelor nu poate fi asumată pentru o anumită pereche în particular și eșantioanele nu sunt egale, trebuie derulată o formă a testului t cu varianțe separate, pentru acea pereche. Dacă toate eșantioanele în ANOVA sunt de aceeași mărime, n1 și n2 din formulă pot fi înlocuite cu n, rezultând formula de mai jos (ultima).

Numărătorul în formulele de mai jos este mereu același, indifferent de grupele comparate. — Constanța numărătorului când eșantioanele sunt egale duce la o procedură simplificată care se numește Fisher least significant difference test LSD.

Dacă extragi 3/mai multe eșantioane în aceleași condiții și te uiți la diferența dintre media cea mai mica și cea mai mare, această diferență va tinde să fie mai mare decât diferența obținută pentru 2 eșantioane. Cu cât extragi mai multe eșantioane, cu atât va fi mai mare diferența dintre media minima și maximă. — Aceste diferențe se datorează șansei (deoarece mediile populației sunt, de fapt, egale).

Pentru a ne proteja de la a interpreta ca ceva aleator ca și semnificativ, avem nevoie de o valoare critică pentru diferențele tot mai mari dintre medii. Pentru acest lucru, există distribuția studentized range statistic, care ne permite să găsim valorile critice de care avem nevoie, ajustate la numărul eșantioanelor din experiment.

Cu toate acestea, aceste valori critice asumă faptul că toate eșantioanele sunt la fel de mari, deci formula pentru teste t conform lui Tukey este similară cu formula pentru testele t protejate a lui Fisher, cu n egale. Litera g este valoarea critică pentru studentized range statistic.

ANOVA unifactorial cu eșantioane independente (Between-Groups ANOVA)

Etapele de testare a ipotezei  Identificare  Enunțarea ipotezelor  Caracteristicile distribuției de comparație  Valori critice  Calcule  Decizie  *Teste adiționale: analize a priori (comparații planificate) și analize post hoc

Exemplu de situație în care s-ar putea folosi testul ANOVA unifactorial: O sală de clasă este împărțită în trei rânduri: față, mijloc și spate. Profesorul a observat că cu cât elevii se îndepărtau de el, cu atât aveau mai multe șanse să lipsească de la curs sau să se distragă în timpul orei. Voia să vadă dacă elevii care erau mai departe de el vor avea o performanță mai scăzută la examene.

Etapa 1 Îndeplinim asumpțiile de normalitate, homoscedascitate, selecție aleatorie Ne asigurăm de eșantionarea aleatorie a studenților din fiecare rând Înregistrăm scorurile studenților la examen Față: 82, 83, 97, 93, 55, 67, 53 Mijloc: 83, 78, 61, 77, 54, 69, 51, 63 Spate: 38, 59, 55, 66, 45, 52, 61

Etapa 2 Enunțăm ipotezele H0 : μ față = μ mijloc = μ spate

H1 : Nu toate mediile sunt egale nu se spune cum și care diferă poate urma cu comparații multiple

Etapa 3 Determinăm caracteristicile distribuției Statisticile rezumative pentru notele fiecărui rând sunt prezentate în tabelul de mai jos: rând

față

mijlociu

spate

mărimea eșantionului

7

9

8

medie

75.71

67.11

53.50

abaterea standard

17.63

10.95

8.96

varianța

310.90

119.86

80.29

Caracteristici: df between = N grupuri - 1 df within = df 1 + df 2 + df 3 + ... + df last , unde df 1 = n1 - 1

Etapa 4 Stabilim pragul de semnificație 5%

Etapa 5 Calculăm testele statistice Calculăm: mediile (media fiecărui grup + media tuturor scorurilor)

cele 2 varianțe (intra- & inter- grupuri) scorul F F = varianță inter-grup/varianța intra-grup F =diferențeindividuale+diferențetratament/diferențe individuale

*Utilizăm tabele pentru organizarea calculelor

Identificăm F crit (în funcție de cele 2 df și alfa) și comparăm cu F calculat

Etapa 6 Decizia statistică

Recapitulare — Varianță Varianța este suma pătratelor abaterilor (diferența dintre o valoare și medie), împărțit la df N pentru populație și N1 pentru eșantion).

Suma pătratelor este abreviată cu SS Sum of Squares) și adesea urmată de o variabilă între paranteze ( ex. SS B sau SS W ) — astfel încât să știm despre ce sumă de pătrate vorbim. Suma pătratelor este un alt nume pentru varianță.

Varianța totală — SS Total)

GM Grand Mean) = media ponderată a tuturor mediilor grupurilor

varianța totală = reprezintă varianța scorurilor individuale, calculată pe întreg designul, fără a ține cont de faptul că diferiți subiecți au fost incluși în diferite grupe. varianță intra-grup / inter-grupuri = diferențe interindividuale + efect intervenție varianța TOTALĂ varianța INTERGRUP varianța INTRAGRUP ”+” se compune (nu este o adunare aritmetică!!!)

Există 2 estimări ale varianței: variația scorurilor dintre grupuri (between groups)

SS between = varianța datorată factorului + erorii (diferențele individuale = diferența dintre media fiecărui grup și media tuturor scorurilor, ridicată la pătrat, și suma lor — denumită uneori și variația datorată factorului - notată SS B pentru suma de pătrate (variație) între grupuri — similară cu eroarea standard a mediilor variația scorurilor din grupuri (within groups)

SS within SS pentru fiecare grup, însumate) = varianța neexplicată de factor (varianța eroare) = diferențele dintre fiecare scor al grupului și media grupului, ridicată la pătrat, și suma lor

F = varianță inter-grup/varianța intra-grup F =diferențeindividuale+diferențetratament/diferențe individuale enunțarea ipotezelor

Cât de diferit trebuie să fie F față de 1, pentru a spune că am detectat un ”semnal”, un efect al unei itervenții? F poate fi mai mare decât 1 și în cazul în care efectul intervenției este 0, deoarece indivizi întâmplător ajung în grupe diferite (produc mici fluctuații a mediilor). Pentru același motiv, F poate fi și mai mic decât 1. Trebuie să ne reprezentăm cum se comportă valorile F în cazul H0. distribuția de referință H0

Relația dintre testul t & ANOVA

distribuția F este o distribuție z / t împăturită

Mărimea efectului ANOVA

Puterea statistică — influențată de:  Numărul participanților / Numărul de subiecți din grupe  Tipul de design (măsurători repetate) / Numărul modalităților variabilei independente  Omogenitatea eșantionului  Mărimea efectului...


Similar Free PDFs