• Shuffle
    Toggle On
    Toggle Off
  • Alphabetize
    Toggle On
    Toggle Off
  • Front First
    Toggle On
    Toggle Off
  • Both Sides
    Toggle On
    Toggle Off
  • Read
    Toggle On
    Toggle Off
Reading...
Front

Card Range To Study

through

image

Play button

image

Play button

image

Progress

1/112

Click to flip

Use LEFT and RIGHT arrow keys to navigate between flashcards;

Use UP and DOWN arrow keys to flip the card;

H to show hint;

A reads text to speech;

112 Cards in this Set

  • Front
  • Back
Parametrische toetsen:
-Z-toets voor het gemiddelde
-de t-toets voor het gemiddelde
-Z-toets voor het verschil tussen twee gemiddelden
-Toets voor gepaarde waarneming: Twee onafhankelijke steekproeven
-Toets voor twee varianties: de F-toets
-Toets voor de correlatie
6-1 Z-toets voor het gemiddelde Toetsingssituatie

Heeft het gemiddelde van de populatie waaruit de steekproef afkomstig is een bepaalde waarde of niet?

Uitgangspunt is
dat we een populatie hebben met een normaal verdeelde variabele X waaruit een aselecte
steekproef wordt getrokken ter grootte van n.

Het steekproefgemiddelde is X en de standaarddeviatie is Sx
H6 Toetsende statistiek: Parametrische toetsen


Toetsingssituatie

Heeft het gemiddelde van de populatie waaruit de steekproef afkomstig is een bepaalde waarde of niet? Uitgangspunt is dat we een populatie hebben met een normaal verdeelde variabele X waaruit een aselecte steekproef wordt getrokken ter grootte van n. Het steekproefgemiddelde is X en de standaarddeviatie is Sx.

Voorwaarden
De z-toets voor het gemiddelde mag worden toegepast indien:
1
σ (de standaardafwijking van de populatie) bekend is en de populatie
normaal is verdeeld;

2
σ onbekend is en/ of de populatie niet normaal verdeeld, én n ≥ 100.

Uit de centrale limietstelling volgt dat het gemiddelde X dan bij benadering
normaal verdeeld is en voor de standaardafwijking van de populatie σ mogen we dan ten koste van een te verwaarlozen fout de standaardafwijking van de steekproef Sx invullen als schatter.
De z-toets voor het gemiddelde mag niet worden toegepast indien:
1
de populatie niet normaal verdeeld is én n klein is (vuistregel: n < 100). In dat geval nemen we voor een steekproefgrootten tussen 30 en 100 de dadelijk te behandelen t-verdeling. Voor n kleiner dan 30 nemen we de non-parametrische 'signed rank test for the mean', die we overigens niet behandelen omdat deze relatief weinig wordt gebruikt.

2
de populatie wel normaal verdeeld is, maar σ onbekend is en n < 100.

We nemen dan de zo dadelijk te bespreken t-toets uit paragraaf 6.2.
Hypothesen
Als μ0 een bepaalde waarde is voor het populatiegemiddelde μ, dan luiden de nulhypothesen en de alternatieve hypothesen als volgt:

L
R
T
Linkseenzijdig toetsen H0 :μ ≥ μo en H1 μ < μo
Rechtseenzijdig toetsen H0 :μ ≤ μo en H1 μ > μo
Tweezijdig toetsen H0 :μ = μo en H1 μ ≠ μo
Toetsingsgrootheid

Om de z-toets te kunnen gebruiken, moeten we eerst
het steekproefgemiddelde berekenen. Vervolgens moeten we, om de overschrijdingskans van het gemiddelde te kunnen berekenen, het steekproefgemiddelde omzetten in een z-score.

Deze z-score is de toetsingsgrootheid, omdat het de statistische grootheid is waarmee we nagaan of de Ho kan worden verworpen.
Deze z-score is de toetsingsgrootheid, omdat
het de statistische grootheid is waarmee we nagaan of de Ho kan worden verworpen.
het de statistische grootheid is waarmee we nagaan of de Ho kan worden verworpen.

z-score van het steekproefgemiddelde onder H0
X = verkregen steekproefgemiddelde
μo = veronderstelde waarde voor het populatiegemiddelde μ
n = steekproefgrootte
σ = standaarddeviatie van de populatie

Alleen wanneer n > 100 mag voor σ de standaardafwijking van de steekproef Sx worden ingevuld . Onder Ho volgt Zx. een standaardnormale verdeling met een gemiddelde van 0 en een standaardafwijking van 1.
Beslissingsregel
De beslissingsregel over het al of niet verwerpen van de H0 kan op twee manieren worden geformuleerd:
Met behulp van overschrijdingskansen of met behulp van kritieke waarden en kritieke zones.

Met behulp van overschrijdingskansen bepalen we eerst de overschrijdingskans van de toetsingsgrootheid onder de aanname dat H0 juist is.
De nulhypothese (H0) wordt verworpen indien:
bij linkseenzijdige toetsing: PL(zx.) ≤ α,
bij rechtseenzijdige toetsing: PR(zx. ) ≤ α,
bij tweezijdige toetsing: Pd(zx. )
= 2 · PL(zx. ) ≤ α als X < μ
= 2 · PR(zx.) ≤ α als X > μ

waarin: PL en PR = resp. linker en rechter overschrijdingskans
Pd = tweezijdige overschrijdingskans
Zx = z-score van het steekproefgemiddelde

H0 wordt dus verworpen wanneer

de een- of tweezijdige overschrijdingskans van de z-score van het gemiddelde kleiner is dan of gelijk is aan α.
Met behulp van kritieke waarden bepalen we eerst welke z-waarde(n) bij het significantieniveau α hoort of horen . Voor α = 0,05 en bij linkseenzijdige toetsing is de kritieke z-waarde gelijk aan -1,64.

De Ho wordt dan verworpen indien
de z-score van het gemiddelde kleiner is dan of gelijk is aan - 1,64, dus: zx. ≤ 1,64.

Voor α= 0,05 en bij rechtseenzijdige toetsing is de kritieke z-waarde gelijk aan +1,64 en wordt de Ho verworpen indien Zx. ≥ +1,64.

Voor α = 0,05 en bij tweezijdige toetsing zijn de kritieke z-waarden - 1,96 en +1 ,96 en de Ho wordt dan verworpen indien Zx. < -1,96 of zx. > +1 ,96.

De H0 wordt dus verworpen wanneer de z-score van het gemiddelde in de kritieke zone(s) terechtkomt.
Betrouwbaargeids interval.

Als we met een bepaald percentage zekerhgeid willen weten binnen welke grenzen het werkelijke populatie gemiddelde ligt, dan bepalen we een betrouwbaarheidsinterval.

Bij een betrouwbaarheidsdrempel α wordt de formule voor 100(1-α)% betrouwbaarheidsinterval gelijk aan:
100(1- ex)% betrouwbaarheidsinterval van het gemiddelde
100(1- ex)% betrouwbaarheidsinterval van het gemiddelde
6.8 Slotwoord parametrische toetsen

We hebben ons in het voorgaande tot de meest gebruikte parametrische toetsen voor één en twee steekproeven beperkt. Dat zijn uiteraard niet alle toetsen die er zijn. We noemen nog enkele voorbeeld en van andere hypothesen die we kunnen toetsen:
6.8 Slotwoord parametrische toetsen


1. Correlatietoets voor waarden die afwijken van 0

2. Toets voor het verschil tussen twee of meer correlaties in onafhankelijke steekproeven

3. Toets voor het verschil tussen correlaties bij afhankelijke steekproeven

4 CHi 2-toets voor één variantie
6.8 Slotwoord parametrische toetsen

1. Correlatietoets voor waarden die afwijken van 0

2. Toets voor het verschil tussen twee of meer correlaties in onafhankelijke steekproeven

3. Toets voor het verschil tussen correlaties bij afhankelijke steekproeven

4 CHi 2-toets voor één variantie
1. Correlatietoets voor waarden die afwijken van 0
Deze toets gebruiken we wan neer we ons afvragen of de popul atiecorrelatie wel of niet een bepaalde waarde heeft. De meest voorkomende nulhypothese is dan: H0 : p = p0 (p0 is een bepaalde van 0 afwijkende waarde).

2. Toets voor het verschil tussen twee of meer correlaties in onafhankelijke steekproeven
Veronderstel dat we in twee of meer onafhankelijke steekproeven de correlatie hebben berekend tussen X en Y en na willen gaan of de over­ eenk omstige correlaties in de populaties waaruit de steekproeven ko­ m en verschillen . De nulhypothese is dan: H0: p 1= p2= ... = p n

3. Toets voor het verschil tussen correlaties bij afhankelijke steekproeven
Hier gaat het om het verschil tussen correlaties binnen één en dezelfde steekproef, bijvoorbeeld het verschil in correlatie wanneer de variabe ­ l en X 1 en X2 m et een derde variabele X 3 worden gecorreleerd. Dit geval doet zich met name voor als we twee validiteitcoëfficiënten willen vergelijken : twee tests correleren elk met een zelfde criterium X3. Om na te gaan of er verschillen zijn , toetsen we meestal de nulhypothese : H0: p 1 3 = P z3


4 CHi 2-toets voor één variantie
Deze toets gebruiken we als we willen nagaan of de vari antie in een normaal verdeeld e populatie een bepaalde waarde heeft, bijvoorbeeld als we willen nagaan of de steekproef afkomstig is uit een populatie waarin het IQ een standaardafwijking van 15 heeft .
H0 : σ2 = σ0 in het kwadraat (σ o is een bepaalde waarde) .
Hoe bepalen we w elke toets we bij een bepaalde vraagstelling moet gebruiken? Welke van de genoemde parametrische, of de hierna te behandelen non -parametrische toetsen komt in aanmerking om de onderzoeksvraag te beantwoorden ?
Om deze vraag te kunnen beantwoorden moeten we allereerst nauwkeurig om schrijven wat de onderzoeksvraag is waarover we uitsluitsel willen, en in welke toetsingssituatie we ons bevinden.
Je moet weten:

Het...
Het aantal populaties

Het meetniveau

Is de populatie normaal verdeeld ?

Is of zijn het afhankelijke of onafhankelijke steekproeven
Aantal populaties
Hoeveel populaties zijn er in het geding? Gaat het om de waarde van een parameter binnen één populatie (bij voorbeeld het gemiddelde µ of de correlatie tussen twee variabelen p), of gaat het om het verschil tussen twee populaties (bijvoorbeeld of ze een verschillend populatiegemiddelde hebben , of dat hun varianties verschillen)?

Dit bepaalt namelijk of we met een één -steekproefprobleem of een twee -steekproevenprobleem te maken hebben.
Meetniveau
Is (of zijn ) de variabele(n) gemeten op intervalniveau of hoger ? Zijn ze gemeten op ordinaal niveau of lager, gebruik dan in ieder geval een non-parametrische techniek.
Populatie normaal verdeeld ?
Zi jn de populaties normaal verdeeld met bekende standaard afwijkingen , of niet? Dit bepaalt of we een z-toets of een t-toets mogen gebruiken .
Zijn de populaties niet normaal verdeeld , maar zijn de steekproeven voldoende groot om te mogen veronderstellen dat de steekproeven verdeling van het gemiddelde bij ben ader ing normaal is verd eeld? In dat geval mogen we de t-toets gebruik en. Zijn de steekproeven echter te klein, gebruik d a n een va n de n on-pa ram etrische toetsen.
Afhankelijke of onafhankelijke steekproeven
Zijn de steekproeven die we in situaties van twee of meer populaties trekken afhankelijk of onafhankelijk ? Zijn ze onafhankelijk getrokken, gebruik dan toetsen voor onafhankelijke steekproeven . Zijn ze afhankelijk getrokken, gebruik dan toetsen voor afhankelijke steekproeven .
6 .1 Z-toets voor het gemiddelde
Toetsingssituatie

Heeft het gemiddelde van de populatie waaruit de steekproef afkomstig is een bepaalde waarde of niet? Uitgangspunt is
dat we een populatie hebben met een normaal verdeelde variabele X waaruit een aselecte steekproef wordt getrokken ter grootte van n.

Het steekproefgemiddelde is X (gemiddelde) en de standaarddeviatie is sx·
Voorwaarden

De z-toets voor het gemiddelde mag worden toegepast indien:
1 σ (de standaardafwijking van de populatie) bekend is en de populatie normaal is verdeeld;

2 σ onbekend is; en/of de populatie niet normaal verdeeld, én n ~ 100.

Uit de centrale limietstelling volgt dat het gemiddelde X dan bij benadering normaal verdeeld is en voor de standaardafwijking van de populatie σ mogen we dan ten koste van een te verwaarlozen fout de standaardafwijking van de steekproef Sx invullen als schatter.
De z-toets voor het gemiddelde mag niet worden toegepast indien:
1 de populatie niet normaal verdeeld is én n klein is (vuistregel: n < 100). In dat geval nemen we voor een steekproefgrootte n tussen 30 en 100 de t-verdeling.

Voor n kleiner dan 30 nemen we de non-parametrische 'signed rank test for the mean', die we overigens niet behandelen omdat deze relatief weinig wordt gebruikt.

2 de populatie wel normaal verdeeld is, maar σ onbekend is en n < 100. We nemen dan de t-toets
Slotwoord z-toets voor het gemiddelde

Een kleine steekproef mag. Bijv. n = 9 is klein. Maar als de steekproef inderdaad aselect is getrokken, en de populatie inderdaad normaal verdeeld is met - in dit geval - een gemiddelde van 100 en een standaardafwijking van 10, dan is een eventueel commentaar op de grootte van de steekproef
niet terecht.

De hypothese is volkomen volgens de regels getoetst en daar is niets op aan te merken. De H0 wordt echt verworpen.
Men kan het ook zo zien: de verschillen tussen kinderen die laat naar bed gaan en het populatiegemiddelde moeten wel erg groot zijn, wil
men met zo'n kleine steekproef al
een statistisch significant verschil kunnen aantonen.

Dat men het verschil al met een kleine aselecte steekproef vindt, bevestigt des te meer dat er volgens de alternatieve hypothese een echt verschil aanwezig is.
Het berekenen van een betrouwbaarheidsinterval heeft als groot voordeel
dat men in één oogopslag ziet welke hypothesen wél en welke niet kunnen worden verworpen.
Het vergt echter nieuw onderzoek, althans nieuwe gegevens, om dat ook daadwerkelijk te doen.

Nulhypothesen opstellen aan de hand van
verkregen gegevens en die op dezelfde gegevens toetsen, is statistisch gezien een
doodzonde.

Hypothesen stelt men op voordat men de gegevens
verzamelt, zodat men ook echt het risico loopt dat men ongelijk heeft.

Dat risico is verdwenen wanneer men op basis van gegevens al weet wat er uit gaat komen. Bij elke hoeveelheid gegevens is immers wel een nulhypothese te vinden die men op basis van die gegevens zou verwerpen.

Pas wanneer men deze op nieuwe gegevens toetst , loopt men - zoals het hoort - toch weer het risico dat de H0 niet wordt verworpen.
6 .2 De t-toets voor het gemiddelde

Toetsingssituatie

Naast de z-toets is er nog een tweede parametrische toets om te toetsen of het populatiegemiddelde een bepaalde waarde heeft:
de t-toets.
Ook de t-toets is een toets voor één steekproef uit één populatie.

Uitgangspunt:
is ook hier dat we een normaal verdeelde populatie hebben waaruit een aselecte steekproef wordt getrokken ter grootte van n.

Het steekproefgemiddelde is X en de standaardafwijking van de steekproef is sx.
Voorwaarden

De t-toets voor het gemiddelde mag worden gebruikt indien:
we een kleine steekproef trekken (n < 100) uit een populatie die normaal verdeeld is met een onbekende standaarddeviatie u;

de steekproef groter is dan 30 en de populatie niet normaal verdeeld is.

De t-toets voor het gemiddelde mag niet worden gebruikt indien:

de steekproefgrootte kleiner is dan 30 en de populatie niet normaal verdeeld is. In dat geval nemen we de non-parametrische 'signed rank test'
De t-toets voor het gemiddelde mag niet worden gebruikt indien:
de steekproefgrootte kleiner is dan 30 en de populatie niet normaal verdeeld is. In dat geval nemen we de non-parametrische 'signed rank test'
Toetsingsgrootheid

Om de toets te kunnen uitvoeren, zetten we het steekproefgemiddelde om in een t-score.

Deze t-score is de toetsingsgrootheid waarmee we de
H0 toetsen.

t-score van het steekproefgemiddelde:
Deze formule lijkt sterk op die van de z-score. Het enige verschil is dat de standaarddeviatie van de populatie a nu vervangen wordt door
Deze formule lijkt sterk op die van de z-score. Het enige verschil is dat de standaarddeviatie van de populatie a nu vervangen wordt door
de standaarddeviatie van de steekproef s.
Wanneer nu s een goede benadering zou zijn van a, zouden we kunnen doorgaan met Zx als onze toetsingsgrootheid en de normale verdeling als model voor de steekproevenverdeling.

Aan het eind van de negentiende eeuw kwam de statisticus W. Gosset erachter dat de schatting van
a door s voor kleinere steekproeven niet goed is.

Met kleine steekproeven (n < 100) is s in de helft van het aantal gevallen een onderschatting van a en dit heeft als direct gevolg dat de toetsingsgrootheid
een grotere standaarddeviatie heeft dan de normale verdeling.

Gosset beschreef een verdeling, of beter gezegd, een familie van kansverdelingen die het mogelijk maakte om hypothesen te toetsen wanneer de steekproeven uit een normaal verdeelde populatie getrokken zijn met
een onbekende standaarddeviatie.

Deze verdeling heet de t-verdeling, of ook wel de student-t-verdeling.

Gosset publiceerde een en ander namelijk onder de schuilnaam Student.
Als de nulhypothese juist is en de populatie is normaal verdeeld, dan volgt de toetsingsgrootheid tx een t-verdeling.

Deze verdeling lijkt op een normale verdeling, maar heeft een wat plattere vorm en dikkere staarten. De t-verdeling is eveneens symmetrisch en het gemiddelde is nul.

Bi j kleine steekproeven uit een normale verdeling met een onbekende a mogen we dus zeggen dat de t-scores van het gemiddelde t-verdeeld zijn.

Hetzelfde mogen we ten koste van een kleine fout zeggen als de steekproeven niet uit een normale verdeling komen, maar ...
groter dan 30 zijn.
Een t-verdeling is een (continue) kansverdeling van de variabele t en dus kunnen we (net zoals in bij de standaardnormale verdeling) voor elke t-waarde de overschrijdingskans (of kansen op t-waarden binnen
bepaalde gebieden) berekenen.

Helaas zijn er meerdere t-verdelingen mogelijk, die niet - zoals bij normale verdelingen - tot één standaard- verdeling zijn te herleiden.

Elke t-verdeling wordt daarbij volledig bepaald door:
het zogenaamde aantal vrijheidsgraden (df) bepaald.

Dus zijn er zo veel t-verdelingen als er vrijheidsgraden zijn.
Maar wat is een vrijheidsgraad?

Veronderstel dat we van vijf getallen het
gemiddelde weten, zeg 10.

Hoeveel van die vijf getallen mag ik dan vrij
kiezen, of anders gezegd, op hoeveel manieren kan mijn keuzevrijheid zich manifesteren: hoeveel graden van vrijheid (degrees of freedom) heb ik?
Het antwoord is 4,

want ik mag vier getallen willekeurig - dus volledig onafhankelijk van elkaar - kiezen, bijvoorbeeld 5, 11, 3 en 8.

Het vijfde getal ligt dan echter vast. Dat moet zo worden gekozen dat het gemiddelde 10 wordt. In ons geval moet het vijfde getal dus 23 zijn .

In dit geval hebben we dus 5 - 1 vrijheidsgraden:
df = 5 - 1 = 4.

We zijn één van de vijf vrijheidsgraden verloren, omdat het gemiddelde reeds van tevoren vastlag.
Als we met afwijkingsscores werken, zoals bij de
schatting van de populatiestandaardafwijking door de steekproefstandaardafwijking, dan is deze niet op 5 (of meer algemeen n) vrijheidsgraden, maar op df = 5 - 1 = 4 (of meer algemeen df = n - 1) gebaseerd.

Bij de t-verdeling gebruiken we de standaardafwijking uit de steekproef als
schatter van de populatiestandaardafwijking en dus werken we met afwijkingsscores.

Dit kost ons 1 vrijheidsgraad, zoals we zo juist hebben
gezien. Als de steekproefgrootte n is, is de t-verdeling voor het gemiddelde daarom op df = n - 1 gebaseerd.
Beslissingsregel

Ook bij de t-toets kan de beslissingsregel over het al of niet verwerpen op twee manieren worden geformuleerd:
met behulp van overschrijdingskansen
en met behulp van kritieke waarden.
Er zijn net zoveel t-verdelingen als er vrijheidsgraden zijn en dus moeten we, om alle kansen te kunnen berekenen, over net zo veel tabellen
beschikken als er vrijheidsgraden zijn.

Het opzoeken van alle mogelijke overschrijdingskansen met behulp van tabellen kan dus niet.

Het berekenen van alle mogelijke overschrijdingskansen in de t-verdeling kan alleen
wanneer men over een programma beschikt, bijvoorbeeld probs.exe.
Kritieke waarden

Met behulp van kritieke waarden bepalen we eerst welke t-waarde(n) hoort of horen bij een bepaald aantal vrijheidsgraden en bij het significantieniveau σ.

Veronderstel de steekproefgrootte bedraagt 19 en het
significantieniveau is 0,05.
Voor σ = 0,05 en df = 19 - 1 = 18 en bij linkseenzijdige toetsing kijken we in bijlage 3 in de regel df = 18 en in de kolom onder σ = 0,05 (eenzijdige toetsing); daar vinden we het getal: 1,734.
Als het aantal vrijheidsgraden groter wordt, gaat de t-verdeling steeds meer waar op lijken?
op een normale verdeling lijken. Voor df > 100 zijn de verschillen zo klein, dat ook de tabel voor de standaardnormale verdeling mag worden gebruikt.
Betrouwbaarheidsinterval

Behalve het toetsen van hypothesen kunnen we ook betrouwbaarheidsintervallen berekenen. Wanneer we met een bepaald percentage zekerheid willen weten binnen welke grenzen het populatiegemiddelde
ligt, dan bepalen we het
betrouwbaarheidsinterval.
De algemene formule voor het 100(1 - a)%-betrouwbaarheidsinterval is:

100(1 - σ)%-betrouwbaarheidsinterval van het gemiddelde waarin:
100(1 - σ)%-betrouwbaarheidsinterval van het gemiddelde waarin:
100(1 - σ)%-betrouwbaarheidsinterval van het gemiddelde waarin:
Deze uitdrukking geeft aan dat we met (1 - σ)% zekerheid weten dat
het populatiegemiddelde binnen de genoemde grenzen ligt.

Of dat alle nulhypothesen binnen deze grenzen bij tweezijdige toetsing niet zullen
worden verworpen.
6.3 Z-toets voor het verschil tussen twee gemiddelden

Toetsingssituatie

In veel onderzoekingen zijn we vooral in de verschillen tussen twee populaties geïnteresseerd.

We willen bijvoorbeeld weten of jongens
meer aanleg voor wiskunde hebben dan meisjes, of kinderen die volgens een bepaalde methode les hebben gehad betere prestaties leveren op
eenzelfde test dan andere kinderen, of kinderen uit hogere milieus assertiever zijn dan kinderen uit lagere milieus, of het percentage leerlingen van een school dat in één keer voor het eindexamen vwo slaagt in de Randstad gemiddeld hoger ligt dan in de rest van Nederland, et cetera.

Daarvoor gebruiken we de:
Z-toets voor het verschil tussen twee gemiddelden
De z-toets voor het verschil tussen twee gemiddelden gaat ervan uit dat
we twee normaal verdeelde populaties hebben.

Het gemiddelde en de standaardafwijking van populatie I zijn μ1 en σ1 en die van populatie II zijn μ1 en σ2.

Met de toets willen we aantonen dat de twee populatiegemiddelden van elkaar verschillen.
Met de z-toets voor het verschil tussen twee gemiddelden willen we wat aantonen?
Met de toets willen we aantonen dat de twee populatiegemiddelden van elkaar verschillen.
We trekken uit elke populatie aselect een steekproef, zodat we over twee onafhankelijke steekproeven beschikken .

Van elk van deze steekproeven berekenen we zoals gebruikelijk
het gemiddelde en de standaarddeviatie
Voorwaarden

De z-toets wordt toegepast indien:
A.
σ1 en σ2 bekend zijn en de populaties normaal zijn verdeeld;

B.
σ1 en σ2 onbekend zijn en/of de populaties niet normaal zijn verdeeld, en de aantallen n1 en n2 (als vuistregel) beide groter of gelijk zijn aan 100;

we blijven daarmee aan de veilige kant. We nemen dan
de standaardafwijkingen van de steekproeven s1 en s2 als schatters van σ1 en σ2 .
De z-toets wordt niet toegepast indien:
-σ1 en σ2 onbekend zijn en
-de beide steekproeven kleiner zijn dan 100.

Dan wordt de t-toets gebruikt.
Hypothesen

We beweren in feite dat het gemiddelde in de ene populatie μ1 verschilt van dat in de andere populatie μ2 .

De alternatieve hypothese heeft dus betrekking op het verschil tussen twee populatiegemiddelden: μ1 - μ2.

Een alternatieve hypothese is bijvoorbeeld dat het gemiddelde in de eerste populatie groter is dan in de tweede: μ1 -μ2.

De nulhypothese zegt dan dat
er geen verschil is of zelfs een omgekeerd verschil, dus dat μ1 ≤ μ2 .
Toetsingsgrootheid

De verschillen tussen de gemiddelden van steekproeven die elk uit één populatie komen zullen van steekproef tot steekproef een verschil laten
zien.

Evenals de afzonderlijk steekproefgemiddelden hebben de verschillen tussen de gemiddelden daarom eveneens een steekproeven verdeling.

Deze verdeling heet
de steekproevenverdeling van het verschil tussen twee gemiddelden, of de steekproevenverdeling van X1 - X2.

Omdat de steekproeven afkomstig zijn uit normale verdelingen met bekende σ 's, kunnen we aantonen dat ook de steekproevenverdeling van de gemiddelden X1 - X2 normaal is.
Steekproef verdeling van de gemiddelden X1 en X2
Als we het verschil tussen de twee steekproefgemiddelden hebben berekend, kunnen we dit verschil omzetten in een z-score. 

Deze z-score is de toetsingsgrootheid waarmee hypothesen over verschillen in gemiddelden tussen twee normaal verdeelde po...
Als we het verschil tussen de twee steekproefgemiddelden hebben berekend, kunnen we dit verschil omzetten in een z-score.

Deze z-score is de toetsingsgrootheid waarmee hypothesen over verschillen in gemiddelden tussen twee normaal verdeelde populaties kunnen worden getoetst.
Deze z-score is de toetsingsgrootheid waarmee hypothesen over verschillen in gemiddelden tussen twee normaal verdeelde populaties kunnen worden getoetst.
z-score van het verschil tussen twee gemiddelden
z-score van het verschil tussen twee gemiddelden
z-score van het verschil tussen twee gemiddelden
z-score van het verschil tussen twee gemiddelden
Het is inderdaad een z-score, 

want we nemen het gevonden verschil, verminderen dit met het echte verschil tussen de populaties en delen dit door de standaardafwijking van alle mogelijke verschillen tussen de steekproefgemiddelden van steekproe...
Het is inderdaad een z-score,

want we nemen het gevonden verschil, verminderen dit met het echte verschil tussen de populaties en delen dit door de standaardafwijking van alle mogelijke verschillen tussen de steekproefgemiddelden van steekproeven ter grootte van n1 en n2.
Als we de nulhypothese toetsen dat er geen verschil is, zodat μ1 - μ2 = 0, dan vullen we op die plaats natuurlijk 0 in in de formule van z.

Er komt dan in de teller van de formule voor z alleen het verschil tussen de twee steekproefgemiddelden te staan.

Een enkele keer komt het voor in onderzoek dat men aan verschillen tussen populatiegemiddelden pas betekenis hecht, wanneer die verschillen groter zijn dan een bepaalde waarde, zeg a.

Dit is bijvoorbeeld het geval wanneer we moeten onderzoeken of een dure overheidsmaatregel moet worden ingevoerd en de overheid alleen tot invoering wil overgaan als de maatregel een voldoende groot effect sorteert (groter dan a).

In dat geval luidt de nulhypothese
dat μ1 - μ2 ≤ + a en de alternatieve hypothese bijvoorbeeld

dat μ1 - μ > + a .

In de formule van z moeten we nu op de plaats waar
μ1 - p2 staat a invullen. Voor de rest verloopt de toets precies hetzelfde als hiervóór is beschreven.
Beslissingsregel

Ook bij de z-toets voor het verschil tussen twee gemiddelden kan de beslissingsregel over het al of niet verwerpen van de H0 op twee manieren worden geformuleerd:
met behulp van overschrijdingskansen of met
behulp van kritieke waarden en kritieke zones.

Met behulp van overschrijdingskansen bepalen we eerst de overschrijdingskans van de toetsingsgrootheid onder de aanname dat H0 juist is.
Met behulp van kritieke waarden bepalen we eerst welke z-waarde(n) hoort of horen bij het significantieniveau α.

Voor α = 0,05 en bij linkseenzijdige toetsing is de kritieke z-waarde gelijk aan -1,64. De H0 wordt
dan verworpen indien de z-score van het verschil tussen de gemiddelden van de twee steekproeven kleiner dan of gelijk aan -1,64 is.

De H0 wordt dus verworpen wanneer
de z-score van het verschil tussen de twee gemiddelden in de kritieke zone(s) terechtkomt.
Betrouwbaarheidsinterval

Als we met een bepaald percentage zekerheid willen weten binnen welke grenzen het verschil tussen twee populatiegemiddelden ligt, dan berekenen
we een
betrouwbaarheidsinterval. 

Uitgaande van normale verdelingen, of grote steekproeven, wordt het 100(1 -α)%-betrouwbaarheidsinterval:

100(1 - α)%-betrouwbaarheidsinterval van het verschil tussen twee gemiddelden
betrouwbaarheidsinterval.

Uitgaande van normale verdelingen, of grote steekproeven, wordt het 100(1 -α)%-betrouwbaarheidsinterval:

100(1 - α)%-betrouwbaarheidsinterval van het verschil tussen twee gemiddelden
6.4 De t-toets voor het verschil tussen twee gemiddelden

Toetsingssituatie

De t-toets voor het verschil tussen twee gemiddelden wordt in soortgelijke situaties gebruikt als
de z-toets voor het verschil tussen twee gemiddelden.

Ook nu zijn we vooral in de verschillen tussen twee populaties geïnteresseerd.


We willen bijvoorbeeld weten of jongens meer aanleg voor wiskunde hebben dan meisjes, of een instructiefilm meer effect heeft dan klassikale uitleg, enzovoort.
Bij de t-toets voor het verschil tussen twee gemiddelden gaan we uit van
-twee normaal verdeelde populaties waarvan we de standaardafwijkingen niet kennen.
-Uit elke populatie wordt een aselecte steekproef
getrokken en we krijgen zo dus twee onafhankelijke steekproeven.
-Van elke steekproef bepalen we het gemiddelde en de standaardafwijking.
-Nagegaan wordt of de gemiddelden van beide populaties verschillen.
Voorwaarden

De t-toets voor het verschil tussen twee gemiddelden mag worden gebruikt indien:
1 de twee populaties normaal zijn verdeeld met onbekende σ1 en σ2, en n1 of n2 kleiner zijn dan 100.

2 de populaties niet normaal zijn verdeeld, maar beide steekproeven tussen de dertig en de honderd onderzoekseenheden bevatten.

Wanneer de populaties niet normaal zijn verdeeld, maar n1 en n2 groter zijn dan 100, gebruiken we de z-toets voor het verschil tussen twee gemiddelden.
Wanneer de populaties niet normaal zijn verdeeld, maar n1 en n2 groter zijn dan 100, gebruiken we
de z-toets voor het verschil tussen twee gemiddelden.
Toetsingsgrootheid

Er zijn twee varianten van de t-toets voor het verschil tussen twee gemiddelden die samenhangen met de vraag of de varianties in de populaties wel of niet verschillend zijn.

Voordat men verder kan met de t-toets, moet men eerst toetsen met
de F-toets of de varianties gelijk zijn.
Er zijn twee varianten van de t-toets voor het verschil tussen twee gemiddelden die samenhangen met de vraag of de varianties in de populaties wel of niet verschillend zijn.

De twee varianten:
Variant 1: Toetsingsgrootheid als varianties gelijk zijn
Variant 2: Toetsingsgrootheid als varianties ongelijk zijn
Variant 1: Toetsingsgrootheid als varianties gelijk zijn
Uitgaande van twee normaal verdeelde populaties met gelijke, doch onbekende varianties
(dus met σ(in het kwadraat) 1 = σ in het kwadraat 2 = σ in kwadraat), is de steekproevenverdeling van X1 - X2 een normale verdeling waarvan de verwachte waarde gelijk is aan μ1 - μ2.

Met de variantie (of met de standaardafwijking) van deze verdeling is het iets ingewikkelder gesteld, want hiervoor moet eerst de populatievariantie σ2 worden geschat op basis van beide steekproefvarianties. Als de populatievarianties inderdaad gelijk zijn, kunnen we de populatievariantie ( σ 2) schatten als een gewogen gemiddelde van de twee steekproefvarianties.
Met de variantie (of met de standaardafwijking) van deze verdeling is het iets ingewikkelder gesteld, want hiervoor moet eerst de populatievariantie σ2 worden geschat op basis van beide steekproefvarianties. Als de populatievarianties inderdaad gelijk zijn, kunnen we de populatievariantie ( σ2) schatten als een gewogen gemiddelde van de twee steekproefvarianties.

Dit heet in het Engels
het 'poolen' van de steekproefvarianties. We doen dit met behulp van de volgende formule:


'Gepoolde' variantie op basis van twee steekproeven uit populaties met gelijke varianties
het 'poolen' van de steekproefvarianties. We doen dit met behulp van de volgende formule:


'Gepoolde' variantie op basis van twee steekproeven uit populaties met gelijke varianties
We herkennen hierin
We herkennen hierin
de vorm die we zo juist bij de variantie van de verdeling van het verschil tussen twee gemiddelde tegenkwamen toen we de varianties wél kenden.
de vorm die we zo juist bij de variantie van de verdeling van het verschil tussen twee gemiddelde tegenkwamen toen we de varianties wél kenden.
Omdat we te maken hebben met een normale verdeling en een onbekende (immers geschatte) σ, gaan we weer over op de t-verdeling die voor dit soort situaties is ontwikkeld.

Het omzetten van het geobserveerde verschil X1 - X2 in een t-score geschiedt met de volgende formule:
T-score voor het verschil in gemiddelden van twee steekproeven uit populaties met gelijke varianties
T-score voor het verschil in gemiddelden van twee steekproeven uit populaties met gelijke varianties
Ook hier weer, hoe groter het aantal vrijheidsgraden, hoe meer
De verdeling op een standaard normale verdeling gaat lijken.
Variant 2:

Toetsingsgrootheid als varianties ongelijk zijn

Wanneer de populatievarianties ongelijk zijn, kan men het verschil tussen de geobserveerde steekproefgemiddelden X1 - X2 omzetten in de
volgende geobserveerde t-score:
t-score voor het verschil tussen twee steekproefgemiddelden bij populaties met ongelijke varianties.


Merk op, dat deze formule sterk lijkt op die van de z-score, met dien verstande dat de populatievarianties vervangen zijn door de steekproefv...
t-score voor het verschil tussen twee steekproefgemiddelden bij populaties met ongelijke varianties.


Merk op, dat deze formule sterk lijkt op die van de z-score, met dien verstande dat de populatievarianties vervangen zijn door de steekproefvarianties.

Het aantal vrijheidsgraden wordt echter een ingewikkelde functie.
Merk op, dat deze formule sterk lijkt op die van de z-score, met dien verstande dat de populatievarianties vervangen zijn door de steekproefvarianties.

Het aantal vrijheidsgraden wordt echter een ingewikkelde functie.
In feite wordt het aantal vrijheidsgraden nu geschat. 

De toetsingsgrootheid volgt nu een t-verdeling met dit aantal vrijheidsgraden.
In feite wordt het aantal vrijheidsgraden nu geschat.

De toetsingsgrootheid volgt nu een t-verdeling met dit aantal vrijheidsgraden.
Beslissingsregel

Ook nu kan de beslissing over het al of niet verwerpen van de H0 weer op twee manieren worden geformuleerd:
met behulp van overschrijdingskansen
en met behulp van kritieke waarde(n) en kritieke zone(s) .

Met behulp van overschrijdingskansen berekenen we eerst met behulp van een computerprogramma de overschrijdingskans van de toetsingsgrootheid onder de aanname dat de H0 juist is .

De H0 wordt verworpen indien voor een bepaalde en een bepaald aantal vrijheidsgraden, of de linker, of de rechter of tweezijdig overschreden worden.
Wanneer we de H0 toetsen met behulp van kritieke waarden, dan bepalen we eerst
welke t-waarde (n) hoort of horen bij het significantieniveau a en het aantal vrijheidsgraden.
Betrouwbaarheidsinterval

Als we met een bepaald percentage zekerheid willen weten binnen welke grenzen het verschil tussen twee populatiegemiddelden ligt, dan berekenen we een
betrouwbaarheidsinterval.
Betrouwbaarheidsinterval als varianties gelijk zijn

Bij gelijke populatievarianties is de formule voor een 100(1 - α)%-betrouwbaarheidsinterval gelijk aan:
Betrouwbaarheids interval als varianties ongelijk zijn

Bij ongelijke populatievarianties is de formule voor een 100(1 - a)%-betrouwbaarheidsinterval gelijk aan:
De formules voor beide betrouwbaarheidsintervallen lijken sterk op elkaar.

Wanneer de populatievarianties gelijk zijn, komt in de formules voor de toetsingsgrootheid en het betrouwbaarheidsinterval de gepoolde
variantie te staan;

zijn de populatievarianties ongelijk, dan
komen in de formules voor de toetsingsgrootheid en het betrouwbaarheidsinterval de afzonderlijke steekproefvarianties te staan .
Slotwoord t-toets voor het verschil tussen twee gemiddelden

Wat gebeurt er echter als we de toetsen met elkaar verwarren en we de t-toets voor ongelijke populatievarianties gebruiken wanneer de populatievarianties gelijk zijn aan elkaar?
We krijgen dan minder snel een significant resultaat:

het onderscheidingsvermogen neemt af.
Hoeveel het scheelt, hangt af van de steekproefgroottes en het verschil tussen de varianties. Bij grote steekproeven is het verschil tussen de twee t-toetsen klein.
Bovendien is de verstorende invloed van de ongelijke varianties bij grotere steekproeven klein.
Toets voor gepaarde waarnemingen: twee afhankelijke
steekproeven

Toetsingssituatie

De t-toets voor gepaarde waarnemingen heeft met de z-toets en de t-toets voor het verschil tussen twee gemiddelden gemeen dat
de onderzoeker geïnteresseerd is in de verschillen tussen twee populntiegemiddelden.

Maar bij deze toetsen werden er twee onafhankelijke steekproeven getrokken:

een element dat uit de ene populatie wordt getrokken zegt niets over welk element er uit de andere populatie zal worden getrokken.

De t-toets voor gepaarde waarnemingen werkt met afhankelijke steekproeven.
De t-toets voor gepaarde waarnemingen werkt met
afhankelijke steekproeven.

Wanneer men bij elk element in de eerste steekproef het identieke element zoekt uit de tweede populatie, is er sprake van herhaalde metingen.

Men kan ook bij elk element in de eerste steekproef een element in de tweede populatie zoeken dat zo veel mogelijk lijkt op het reeds getrokken element; dat heet matchen.

Zowel matchen als herhaalde metingen leiden tot afhankelijke steekproeven.
Men kan ook bij elk element in de eerste steekproef een element in de tweede populatie zoeken dat zo veel mogelijk lijkt op het reeds getrokken element;

dat heet:
matchen.

Zowel matchen als herhaalde metingen leiden tot afhankelijke steekproeven.
De redenen om in een onderzoek met afhankelijke steekproeven te werken, zijn gelegen in
een grotere efficiëntie en nauwkeurigheid . In het
algemeen is dergelijk onderzoek goedkoper (men heeft minder proefpersonen nodig) en preciezer (het leidt tot nauwkeuriger metingen).

Maar in lang niet alle onderzoekssituaties kunnen afhankelijke steekproeven worden gebruikt (zie Hoyle e.a. 2002, Turner & Thayer 2001).

Dus net als in de twee vorige paragrafen blijft het doel om na te gaan of twee populatiegemiddelden van elkaar verschillen, maar voor de t-toets voor gepaarde waarnemingen gebruikt men afhankelijke steekproeven, bijvoorbeeld gematchte paren, natuurlijke paren of twee keer dezelfde groep respondenten.
Wanneer wél t-toets met gepaarde waarneming?

Voorwaarden
De t-toets voor gepaarde waarnemingen mag worden gebruikt wanneer:

-de steekproeven afhankelijk zijn;
-we kleine steekproeven trekken uit populaties die -normaal verdeeld zijn met onbekende standaarddeviaties;
-de steekproeven groter zijn dan 30 en het aantal paren dus 30 of meer bedraagt.
Wanneer geen t-toets met gepaarde waarneming?

De t-toets voor gepaarde waarnemingen mag niet worden gebruikt wanneer:
-de twee afhankelijke steekproeven klein zijn (n < 30) en de populaties niet normaal verdeeld zijn;
-de betreffende variabelen niet op een intervalschaal zijn gemeten .
-Bij afhankelijke steekproeven komen dan de tekentoets en de rangtekentoets in aanmerking.
Hypothesen

Als we met gematchte of natuurlijke paren willen nagaan of twee populatiegemiddelden van elkaar verschillen, bepalen we voor de twee steekproeven eerst het verschil per paar (v) en berekenen we vervolgens van deze verschillen het gemiddelde (V) en de standaarddeviatie μy.

Als de nulhypothese dat er geen verschil is tussen de populatiegemiddelden juist is, dan is de verwachte waarde van het gemiddelde verschil gelijk aan:
0.

Met andere woorden, we zien de verschillen binnen de paren als een steekproef uit een populatie waarvan we onder H0 verwachten dat μv = 0.
Toetsingsgrootheid

Om de overschrijdingskans van het gemiddelde verschil (V) te kunnen berekenen, moet dit worden omgezet in een t-score.

Deze t-score is de toetsingsgrootheid, omdat
het de statistische grootheid is waarmee we nagaan of de H0 kan worden verworpen. De formule is:
Deze t-score is de toetsingsgrootheid, omdat het de statistische grootheid is waarmee we nagaan of de H0 kan worden verworpen. De formule is:
Als aan de voorwaarden voldaan is, volgt tv een t-verdeling met n - 1 vrijheidsgraden. 

Als de H0 juist is, zal de geobserveerde tv-waarde ongeveer gelijk zijn aan 0. Naarmate de geobserveerde tv-score verder van 0 af ligt, wordt steeds minder ...
Als aan de voorwaarden voldaan is, volgt tv een t-verdeling met n - 1 vrijheidsgraden.

Als de H0 juist is, zal de geobserveerde tv-waarde ongeveer gelijk zijn aan 0. Naarmate de geobserveerde tv-score verder van 0 af ligt, wordt steeds minder aannemelijk dat de nulhypothese juist is.
Beslissingsregel

Ook nu kan de beslissing over het al of niet verwerpen van de H0 op twee manieren worden geformuleerd:
met behulp van overschrijdingskansen
en met behulp van kritieke waarde(n) en kritieke zone(s).

Met behulp van overschrijdingskansen bepalen we eerst de overschrijdingskans van de toetsingsgrootheid onder de aanname dat de H0 juist is.

De H0 wordt verworpen indien voor een bepaalde en een bepaald aantal vrijheidsgraden:
Met behulp van overschrijdingskansen bepalen we eerst de overschrijdingskans van de toetsingsgrootheid onder de aanname dat de H0 juist is.

De H0 wordt verworpen indien voor een bepaalde en een bepaald aantal vrijheidsgraden:
Dat kan gaan om linkseenzijdige toetseing, rechtseenzijdige toetsing of tweezijdige toetsing
Wanneer we de H0 toetsen met behulp van kritieke waarden, dan bepalen we eerst
welke t-waarde(n) hoort of horen bij het significantieniveau α en het aantal vrijheidsgraden.
Betrouwbaarheidsinterval

Als we het werkelijke verschil μv tussen twee populatiegemiddelden willen schatten, dan doen we dit met een betrouwbaarheidsinterval.

De formule voor het 100(1 - a.)% betrouwbaarheidsinterval is:

Het 100(1 - α)-betrouwbaarheidsinterval voor het gemiddelde verschil bij afhankelijke steekproeven is:
Met 100(1 - α)% zekerheid weten we dan dat het verschil tussen de twee populatiegemiddelden tussen de twee genoemde grenzen van het interval ligt.
Met 100(1 - α)% zekerheid weten we dan dat het verschil tussen de twee populatiegemiddelden tussen de twee genoemde grenzen van het interval ligt.
6.6 Toets voor twee varianties: de f-toets
Toetsingssituatie

De centrale vraag bij de F-toets is
of twee populatievarianties van elkaar verschillen.

Deze toets kan worden gebruikt om na te gaan of wordt
voldaan aan de voorwaarden van gelijke varianties bij de t-toets voor gepoolde varianties uit paragraaf 6.4.
De F-toets voor twee varianties komt erop neer dat
we de varianties s1 in het kwadraat en s2 in het kwadraat van de steekproeven bepalen en vervolgens nagaan hoeveel maal de grootste van de twee groter is dan de kleinste door de grootste variantie
te delen door de kleinste.

Het quotiënt noemen we F.
De F-toets om na te gaan of twee populatievarianties verschillen zou in de volgende situatie kunnen worden gebruikt.

Goedbedoelde ingrepen kunnen soms bij verschillende mensen anders uitpakken. Kinderen in de klas extra belonen als ze iets goed doen, werkt stimulerend.

Maar voor slechtere kinderen betekent dit, dat ze
veel minder worden beloond dan de andere kinderen die ze om zich heen zien en dat zou juist demotiverend kunnen werken.

Als deze conclusie juist is, is het gevolg dat goede kinderen het beter gaan doen en slechtere kinderen nog slechter. Het gevolg hiervan is weer dat de spreiding van bijvoorbeeld cijfers groter wordt. In klassen waarin veel extra wordt beloond, moet
de variantie dus groter zijn dan in klassen waarin
dit niet het geval is.
Wanneer een F toets?

Voorwaarden

De F-toets voor twee varianties mag worden gebruikt indien ..
de populaties waaruit de steekproeven worden getrokken normaal verdeeld zijn.

Bij de F-toets luistert deze eis nauw. Bij kleine afwijkingen van de normale verdeling kan de F zeer veel afwijken van wat hij in werkelijkheid
zou moeten zijn.

Slechts bij grote steekproeven (11 > 100) worden de afwijkingen acceptabel.
Toetsingsgrootheid

Als toetsingsgrootheid om de H0 te toetsen nemen we het quotiënt van de varianties van beide steekproeven. Steeds delen we daarbij door de kleinste variantie (die dus in de noemer komt); de grootste variantie zetten we in de teller.

Dit quotiënt wordt aangeduid met de letter F van Fisher, de statisticus.
Als de nulhypothese waar is, bestaat er geen verschil tussen de populatievarianties en zal F in de buurt liggen van 1. 

Naarmate F groter is, is het aannemelijker dat de populatievarianties werkelijk van elkaar verschillen.
Als de nulhypothese waar is, bestaat er geen verschil tussen de populatievarianties en zal F in de buurt liggen van 1.

Naarmate F groter is, is het aannemelijker dat de populatievarianties werkelijk van elkaar verschillen.
Als de nulhypothese waar is, bestaat er geen verschil tussen de populatievarianties en zal F in de buurt liggen van 1.

Naarmate F groter is, is het aannemelijker dat de populatievarianties
werkelijk van elkaar verschillen.

Als de H0 juist is, volgt de toetsingsgrootheid een kansverdeling die de F-verd eling wordt genoemd.

De vorm van deze verdeling hangt via de vrijheidsgraden df1 en df2 uitsluitend af van de grootte van beide steekproeven, dus van n1 en n2.
De vorm van deze F-verdeling is in zijn algemeenheid
scheef naar rechts; F-verdeling is niet symmetrisch de F-verdeling is dus niet symmetrisch.

Een voorbeeld van een F-verdeling is gegeven in figuur 6.1.
De vorm van deze verdeling hangt via de vrijheidsgraden df1 en df2 uitsluitend af van
de grootte van beide steekproeven, dus van n1 en n2. 

De vorm van deze F-verdeling is in zijn algemeenheid
scheef naar rechts; F-verdeling is niet symmetrisch de F-verdeling is dus niet symmetrisch. 

Een voorbeeld van een F-verdeling is geg...
de grootte van beide steekproeven, dus van n1 en n2.

De vorm van deze F-verdeling is in zijn algemeenheid
scheef naar rechts; F-verdeling is niet symmetrisch de F-verdeling is dus niet symmetrisch.

Een voorbeeld van een F-verdeling is gegeven in figuur 6.1.
Ook hier geven oppervlakten kansen op F-waarden weer tussen bepaalde waarden van F.

Omdat we echter slechts geïnteresseerd zijn in F-waarden met rechter overschrijdingskansen die gelijk zijn aan vaak voorkomende waarden van α, zijn alleen deze getabelleerd.

Omdat elk paar vrijheidsgraden een andere F-verdeling inhoudt, bevat de tabel voor elke waarde van α ...
een groot aantal verdelingen .
Beslissingsregel

Wederom kan de beslissingsregel op twee manieren worden geformuleerd:
met behulp van overschrijdingskansen en met behulp van kritieke waarde(n) en zone(s)
Overschrijdingskansen
Overschrijdingskansen
kritieke waarden
kritieke waarden
6.7 Toets voor de correlatie

Toetsingssituatie

Om te toetsen of er een bepaald lineair verband aanwezig is in de populatie, gebruiken we
de toets voor de correlatie.

Meestal gaat het om het verband tussen twee variabelen die zijn waargenomen bij dezelfde personen.

Het kan echter ook gaan om de correlatie
tussen dezelfde variabelen op verschillende tijdstippen of om de correlatie tussen dezelfde variabelen die gemeten zijn bij gematchte of natuurlijke paren.
Voorbeelden van vragen waarin de toets voor de correlatie zou kunnen worden toegepast, zijn:
Hangt de intelligentie van schoolkinderen samen met de schoolprestatie voor taal?

Welke overeenkomst is er tussen ouders wanneer beiden de intelligentie van hun kinderen schatten?

Hangt het aantal uren slaap dat kinderen uit groep 6 per nacht genieten samen met hun concentratie op school?

Is er een verband tussen de mate waarin mensen aan zelfbeklag doen en hun assertiviteit?

etc
Om vast te stellen of er een verband is, trekken we een steekproef uit de populatie en bepalen van elk element (dus van elke persoon) de waarden op de twee variabelen waartussen we de samenhang willen bepalen en berekenen vervolgens
de correlatie.
Voorwaarden

De toets voor de correlatie mag worden toegepast, indien:
1 de variabelen X en Y op intervalniveau zijn gemeten;

2 de variabelen X en Y een bivariaat-normale kansverdeling hebben;
dit wil ruwweg zeggen dat de Y-waarden voor elke waarde van X normaal zijn verdeeld, en vice versa;

3 de populatievarianties van Y voor elke waarde van X gelijk zijn aan elkaar; de zogenaamde homoscedasticiteit.

Er bestaan zelfs toetsen om na te gaan of aan deze voorwaarden is voldaan (zie Blalock 1972, Guilford 1973). In de praktijk zijn die toetsen echter niet altijd toepasbaar en gebruiken we doorgaans zonder meer de correlatietoets.
Toetsingsgrootheid

De correlatie r die we in de steekproef hebben gevonden, moet worden omgezet in een t-score.

Dit geschiedt met de volgende formule:
T-score van een steekproefcorrelatie.


Mits aan de voorwaarden is voldaan, kan onder de aanname dat de nulhypothese juist is (en de populatiecorrelatie p dus gelijk is aan 0) worden
aangetoond dat de steekproevenverdeling van r een t-verdelin...
T-score van een steekproefcorrelatie.


Mits aan de voorwaarden is voldaan, kan onder de aanname dat de nulhypothese juist is (en de populatiecorrelatie p dus gelijk is aan 0) worden
aangetoond dat de steekproevenverdeling van r een t-verdeling volgt met df = n - 2 vrijheidsgraden.
Beslissingregels

Met behulp van overschrijdingskansen bepalen we eerst de overschrijdingskans van de toetsingsgrootheid t, onder de aanname dat H0 juist is.

De nulhypothese wordt verworpen indien:
6 .8 Slotwoord parametrische toetsen

We hebben ons in het voorgaande tot de meest gebruikte parametrische toetsen voor één en twee steekproeven beperkt. Dat zijn uiteraard niet
alle toetsen die er zijn . We noemen nog enkele voorbeelden van andere hypothesen die we kunnen toetsen:


1 Correlatietoets voor waarden die afwijken van 0
2 Toets voor het verschil tussen twee of meer correlaties in onafhankelijke steekproeven
3 Toets voor het verschil tussen correlaties bij afhankelijke steekproeven
4 CHi kwadraat-toets voor één variantie

Deze toets gebruiken we als we willen nagaan of de variantie in een normaal verdeelde populatie een bepaalde waarde heeft, bijvoorbeeld als we willen nagaan of de steekproef afkomstig is uit een populatie waarin het IQ een standaardafwijking van 15 heeft .
1 Correlatietoets voor waarden die afwijken van 0

Deze toets gebruiken we wanneer we ons afvragen of de populatiecorrelatie wel of niet een bepaalde waarde heeft. De meest voorkomende
nulhypothese is dan: H0: p = p0 (p0 is een bepaalde van 0 afwijkende waarde).

2 Toets voor het verschil tussen twee of meer correlaties in onafhankelijke steekproeven

Veronderstel dat we in twee of meer onafhankelij ke steekproeven de correlatie h ebben berekend tussen X en Y en na willen gaan of de overeenkomstige
correlaties in de populaties waaruit de steekproeven komen verschillen. De nulhypothese is dan: H0: p 1= pz= ... = p11

3 Toets voor het verschil tussen correlaties bij afhankelijke steekproeven

Hier gaat het om het verschil tussen correlaties binnen één en dezelfde steekproef, bijvoorbeeld het verschil in correlatie wanneer de variabelen
X1 en X2 met een derde variabele X3 worden gecorreleerd. Dit geval doet zich met name voor als we twee validiteitcoëfficiënten willen vergelijken : twee tests correleren elk met eenzelfde criterium X3. Om na te gaan of er verschillen zijn, toetsen we meestal de nulhypothese: H0: p 13 = Pz3

4 CHi kwadraat-toets voor één variantie

Deze toets gebruiken we als we willen nagaan of de variantie in een normaal verdeelde populatie een bepaalde waarde heeft, bijvoorbeeld als we willen nagaan of de steekproef afkomstig is uit een populatie waarin het IQ een standaardafwijking van 15 heeft .
Hoe bepalen we welke toets we bij een bepaa lde vraagstelling moet gebruiken?

Welke van de genoemde parametrische, of de hierna te behandelen non-parametrische toet sen komt in aanmerking om de onderzoeksvraag te beantwoorden?

Om deze vraag te kunnen beantwoorden
moeten we allereerst
nauwkeurig omschrijven wat de onderzoeksvraag is waarover we uitsluitsel willen, en in welke toetsingssituatie we ons bevinden.
Wat moeten we weten?
Aantal populaties
Hoeveel populaties zijn er in het geding? Gaat het om de waarde van een parameter binnen één populatie (bijvoorbeeld het gemiddelde μ of
de correlatie tussen twee variabelen p), of gaat het om het verschil tussen twee populaties (bijvoorbeeld of ze een verschillend populatiegemiddelde
hebben, of dat hun varianties ve rschillen)? Dit bepaalt namelijk of we met een één-steekproefprobleem of een twee-steekproevenprobleem te maken hebben.

Meetniveau
Is (of zijn) de variabele(n) gemeten op interva lniveau of hoger? Zijn ze gemeten op ordinaal niveau of lager, gebruik dan in ieder geval een non-parametrische techniek.

Populatie normaal verdeeld?
Zijn de populaties normaal verdeeld met bekende standaardafwij kingen, of niet? Dit bepaalt of we een z-toets of een t-toets mogen gebruiken.

Zijn de populaties ni et normaal verdeeld, maar zijn de steekproeven voldoende groot om te mogen veronderstellen dat de steekproevenverdeling
va n het gemiddelde bij benadering n ormaa l is verdeeld? In dat geval mogen we de t-toets gebruiken .

Zijn de steekproeven echter te
klein, gebruik dan een van de non-parametrische toetsen.

Afhankelijke of onafhankelijke steekproeven
Zijn de steekproeven die we in situaties van twee of meer populaties trekken afhankelijk of onafhankelijk? Zijn ze onafhankelijk getrokken,
gebruik dan toetsen voor onafhan kelij ke steekproeven . Zijn ze afhankelijk getrokken, gebruik
dan toetsen voor afhankelijke steekproeven.