Operation Manual

Blz. 18-49
Voorbeeld – Neem bijvoorbeeld twee steekproeven die uit normale populaties
worden gehaald, zodat n
1
= 21, n
2
= 31, s
1
2
= 0.36 en s
2
2
= 0.25. We
toetsen de nulhypothese, H
o
: σ
1
2
= σ
2
2
op een significantieniveau α = 0.05,
tegen de alternatieve hypothese, H
1
: σ
1
2
≠σ
2
2
. Voor een tweezijdige
hypothese moeten we s
M
en s
m
als volgt identificeren:
s
M
2
=max(s
1
2
,s
2
2
) = max(0.36,0.25) = 0.36 = s
1
2
s
m
2
=min(s
1
2
,s
2
2
) = min(0.36, 0.25) = 0.25 = s
2
2
Ook
n
M
= n
1
= 21,
n
m
= n
2
= 31,
ν
N
= n
M
- 1= 21-1=20,
ν
D
= n
m
-1 = 31-1 =30.
Daarom is de F-teststatistiek F
o
= s
M
2
/s
m
2
=0.36/0.25=1.44
De P-waarde is P-waarde = P(F>F
o
) = P(F>1.44) = UTPF(ν
N
, ν
D
,F
o
) =
UTPF(20,30,1.44) = 0.1788
Omdat 0,1788… > 0,05, dus P-waarde > α, kunnen we de nulhypothese H
o
:
σ
1
2
= σ
2
2
dus niet verwerpen.
Extra opmerkingen over lineaire regressie
In dit deel gaan we verder met lineaire regressie, dat we eerder in dit hoofdstuk
hebben gezien, en geven we een procedure voor hypothesetoetsing van
regressieparameters.
De methode van het kleinste kwadraat
Stel dat x = onafhankelijke, niet-willekeurige variabele en Y = afhankelijke,
willekeurige variabele. De regressiecurve
van Y op x wordt gedefinieerd als de
relatie tussen x en het gemiddelde van de bijbehorende verdeling van de Y’s.
Stel dat de regressiecurve van Y op x lineair is, dus de gemiddelde verdeling
van Y’s wordt gegeven als Α + Βx. Y verschilt van het gemiddelde (Α + Β⋅x)
door een waarde ε, dus Y = Α + Β⋅x + ε, waarbij ε een willekeurige variabele
is.
Teken een puntdiagram of een puntgrafiek om te controleren of de gegevens
een lineaire trend volgen.
Stel dat we n gepaarde observaties (x
i
, y
i
) hebben; dan voorspellen we y met