Operation Manual

Blz. 18-50
y = a + bx, waarbij a en b constant zijn.
Definieer de voorspellingsfout
als e
i
= y
i
-
y
i
= y
i
- (a + bx
i
).
Voor de methode van kleinste kwadraat moeten we a, b kiezen om de SSE-
fouten (Sum of Squared Errors) te minimaliseren
de voorwaarden
We krijgen de zogenaamde normale vergelijkingen:
Dit is een stelsel van lineaire vergelijkingen met a en b als de onbekenden, die
kunnen worden opgelost met de functie lineaire vergelijking van de
rekenmachine. We hoeven deze berekeningen echter niet te maken omdat we
de optie 3. Fit Data … in het menu ‚Ù kunnen gebruiken zoals we
eerder konden zien.
____________________________________________________________________
Opmerking
:
a,b zijn zuivere schatters van Α, Β.
De theorie van Gauss-Markov van kans geeft aan dat er van alle zuivere
schatters voor Α en Β de kleinste-kwadraatschatters (a,b) het meest efficiënt
zijn.
____________________________________________________________________
Extra vergelijkingen voor lineaire regressie
De samenvattende statistieken zoals Σx, Σx
2
, enz. kunnen worden gebruikt om
de volgende hoeveelheden te definiëren:
2
11
2
)]([
i
n
i
i
n
i
i
bxayeSSE +==
==
0)( =SSE
a
0)( =SSE
b
==
+=
n
i
i
n
i
i
xbnay
11
===
+=
n
i
i
n
i
i
n
i
ii
xbxayx
1
2
11