Sommatiestap

Moderators: ArcherBarry, Fuzzwood

Reageer
Berichten: 47

Sommatiestap

Hallo allemaal,

een hele kleine vraag. Ik ben tot zo ver gekomen met het zelf afleiden van OLS met een lineair model. Nu zit ik even vast met de laatste stap en ik hoop dat iemand mij kan helpen daarmee.

Notitie:
\(N\)
is het totaal aantal observaties.
\( \frac{\sum_{i}(Y_{i}-\bar{Y})(X_{i}-\bar{X})}{\sum_{i}(X_{i}^{2})-\frac{(\sum_{i}(X_{i}))^{2}}{N}}\)
Mijn probleem zit hem meer in... hoe vereenvoudig ik de noemers?

Is
\(\frac{(\sum_{i}(X_{i}))^2}{N}\)
gelijk aan
\(\bar{X}^2\)
? Ik kan deze afleiding dan niet maken :) .

Mocht dit wel gelijk zijn aan elkaar, hoe voeg ik ze beiden samen? Kan iemand mij een tip geven?

Groetjes J. J. Wen

Gebruikersavatar
Berichten: 10.179

Re: Sommatiestap

Je bent bekend met
\(\frac{\sum_{i=1}^{N}X_i}{N}\)
?

En wat bedoel je met samenvoegen?
Zoek je graag naar het meest interessante wetenschapsnieuws? Wij zoeken nog een vrijwilliger voor ons nieuwspostteam.

Berichten: 47

Re: Sommatiestap

Ja, dat wordt namelijk:
\(\bar{X}\)
toch?

En met samenvoegen bedoel ik dat de noemer het volgende gaat worden:
\(\sum^{N}_{i=1}(X_{i}-\bar{X})^2\)
want dat is waar ik naar toe wil werken (als ik het goed heb).

Gebruikersavatar
Berichten: 10.179

Re: Sommatiestap

Hmm, zeker dat je in tussentijd niet fout bent gegaan? Kun je eventueel je hele berekening eens tonen? Eventueel via scan.
Zoek je graag naar het meest interessante wetenschapsnieuws? Wij zoeken nog een vrijwilliger voor ons nieuwspostteam.

Berichten: 47

Re: Sommatiestap

Ik zal mijn volledige afleiding wel even geven:

Dit probeer ik te minimaliseren met OLS.
\(\sum^{N}_{i=1}(e_{i}^2)\)
Dit kan je herschrijven als:
\(\sum^{N}_{i=1}(Y_{i}-\hat{Y})^{2}\)
\(\sum^{N}_{i=1}(Y_{i}-(\hat{\beta_{0}}+\hat{\beta_{1}}X_{i}))^{2}\)
\(\sum^{N}_{i=1}(Y_{i}-\hat{\beta_{0}}-\hat{\beta_{1}X_{i}})^{2}\)
Nu differentieer ik ze t.o.v.
\(\beta_{0}\)
en
\(\beta_{1}\)
. (Vraag: hoe heet deze vergelijking eigenlijk officieel? Dit is meer qua notatie een probleempje dan qua uitrekenen (i.e. niet zo belangrijk)).

Differentieer t.o.v.
\(\beta_{0}\)
\(2\sum^{N}_{i=1}(Y_{i}-\hat{\beta_{0}}-\hat{\beta_{1}}X_{i})\)
Gelijkstellen aan 0 om het te minimaliseren.
\(2\sum^{N}_{i=1}(Y_{i}-\hat{\beta_{0}}-\hat{\beta_{1}}X_{i})=0\)
\(\sum^{N}_{i=1}(Y_{i}-\hat{\beta_{0}}-\hat{\beta_{1}}X_{i})=0\)
\(\sum^{N}_{i=1}(Y)_{i} - \hat{\beta_{0}}\sum^{N}_{i=1} 1 - \hat{\beta_{1}}\sum^{N}_{i=1}X_{i} = 0\)
\(\sum^{N}_{i=1}(Y_{i}) - \hat{\beta_{0}}(N-1+1) - \hat{\beta_{1}}\sum^{N}_{i=1}X_{i} = 0\)
\(\sum^{N}_{i=1}(Y_{i}) - \hat{\beta_{0}}N - \hat{\beta_{1}}\sum^{N}_{i=1}X_{i} = 0\)
\(\sum^{N}_{i=1}(Y_{i}) - \hat{\beta_{1}}\sum^{N}_{i=1}X_{i} = \hat{\beta_{0}}N\)
\(\frac{\sum^{N}_{i=1}(Y_{i}) - \hat{\beta_{1}}\sum^{N}_{i=1}X_{i}}{N} = \hat{\beta_{0}}\)
\(\bar{Y} - \hat{\beta_{1}} \bar{X} = \hat{\beta_{0}}\)
Differentieer t.o.v.
\(\beta_{1}\)
\(2\sum^{N}_{i=1}(Y_{i}-\hat{\beta_{0}}-\hat{\beta_{1}}X_{i})X_{i}\)
Gelijkstellen aan 0 om het te minimaliseren.
\(2\sum^{N}_{i=1}(Y_{i}-\hat{\beta_{0}}-\hat{\beta_{1}}X_{i})X_{i}=0\)
\(\sum^{N}_{i=1}(Y_{i}-\hat{\beta_{0}}-\hat{\beta_{1}}X_{i})X_{i}=0\)
\(\sum^{N}_{i=1}(Y_{i}X_{i}) - \hat{\beta_{0}}\sum^{N}_{i=1}(X_{i}) - \hat{\beta_{1}}\sum^{N}_{i=1}(X_{i}^2)=0\)
\(\sum^{N}_{i=1}(Y_{i}X_{i}) - (\bar{Y} - \hat{\beta_{1}} \bar{X})\sum^{N}_{i=1}(X_{i}) - \hat{\beta_{1}}\sum^{N}_{i=1}(X_{i}^2)=0\)
\(\sum^{N}_{i=1}(Y_{i}X_{i}) - \bar{Y} \sum^{N}_{i=1}(X_{i}) + \hat{\beta_{1}} \bar{X}\sum^{N}_{i=1}(X_{i}) - \hat{\beta_{1}}\sum^{N}_{i=1}(X_{i}^2)=0\)
\(\sum^{N}_{i=1}(Y_{i}X_{i}) - \bar{Y} \sum^{N}_{i=1}(X_{i}) = - \hat{\beta_{1}} \bar{X}\sum^{N}_{i=1}(X_{i}) + \hat{\beta_{1}}\sum^{N}_{i=1}(X_{i}^2)\)
\(\sum^{N}_{i=1}(Y_{i}X_{i}) - \bar{Y} \sum^{N}_{i=1}(X_{i}) = \hat{\beta_{1}} (\sum^{N}_{i=1}(X_{i}^2)-\bar{X}\sum^{N}_{i=1}(X_{i}))\)
\(\sum^{N}_{i=1}(Y_{i}X_{i}) - \bar{Y} \sum^{N}_{i=1}(X_{i}) = \hat{\beta_{1}} (\sum^{N}_{i=1}(X_{i}^2)-(\frac{(\sum^{N}_{i=1}(X_{i}))^{2}}{N}))\)
\(\sum^{N}_{i=1}(Y_{i}X_{i}) - (\frac{\sum^{N}_{i=1}(Y_{i})}{N}) \sum^{N}_{i=1}(X_{i}) = \hat{\beta_{1}} (\sum^{N}_{i=1}(X_{i}^2)-(\frac{(\sum^{N}_{i=1}(X_{i}))^{2}}{N}))\)
\(\sum^{N}_{i=1}(Y_{i}X_{i}) - (\frac{\sum^{N}_{i=1}(Y_{i})\sum^{N}_{i=1}(X_{i})}{N}) = \hat{\beta_{1}} (\sum^{N}_{i=1}(X_{i}^2)-(\frac{(\sum^{N}_{i=1}(X_{i}))^{2}}{N}))\)
Hmm... nu weet ik niet meer hoe ik de LHS "in elkaar" tot
\(\sum^{N}_{i=1}(Y_{i}-\bar{Y})(X_{i}-\bar{X})\)
heb gekregen... doe ik hier wat fout?

En de RHS klopt als het goed is, ik moet het alleen nog naar de LHS halen en dan is het delen door...

Nu loop ik eigenlijk vast, ik heb niet echt veel dingen gedaan met sommaties vermenigvuldigen...

Gebruikersavatar
Berichten: 10.179

Re: Sommatiestap

bsc.j.j.w schreef:Differentieer t.o.v.
\(\beta_{1}\)
\(2\sum^{N}_{i=1}(Y_{i}-\hat{\beta_{0}}-\hat{\beta_{1}}X_{i})X_{i}\)
Gelijkstellen aan 0 om het te minimaliseren.
\(2\sum^{N}_{i=1}(Y_{i}-\hat{\beta_{0}}-\hat{\beta_{1}}X_{i})X_{i}=0\)
\(\sum^{N}_{i=1}(Y_{i}-\hat{\beta_{0}}-\hat{\beta_{1}}X_{i})X_{i}=0\)
\(\sum^{N}_{i=1}(Y_{i}X_{i}) - \hat{\beta_{0}}\sum^{N}_{i=1}(X_{i}) - \hat{\beta_{1}}\sum^{N}_{i=1}(X_{i}^2)=0\)
Vanaf hier maak je het al veel moeilijker dan nodig... Het kan wel werken, dat heb ik niet volledig gecontroleerd. Maar het lijkt me nuttiger om je op het juiste pad te brengen :) .

Substitueer eerst je oplossing voor
\(\beta_{0}\)
in je differentiatie. Dat geeft:
\(\sum^{N}_{i=1}(Y_{i}-\overline{Y}-\hat{\beta_{1}}(X_{i} - \overline{X})) X_i=0\)
Bewijs dat
\(\sum^{N}_{i=1}(Y_{i}-\overline{Y}-\hat{\beta_{1}}(X_{i} - \overline{X})) \overline{X}=0\)
. Dan kun je dit aftrekken van
\(\sum^{N}_{i=1}(Y_{i}-\overline{Y}-\hat{\beta_{1}}(X_{i} - \overline{X})) X_i=0\)
. Zie je het dan volgen?
Zoek je graag naar het meest interessante wetenschapsnieuws? Wij zoeken nog een vrijwilliger voor ons nieuwspostteam.

Gebruikersavatar
Pluimdrager
Berichten: 10.058

Re: Sommatiestap

bsc.j.j.w schreef:Mijn probleem zit hem meer in... hoe vereenvoudig ik de noemers?

Is
\(\frac{(\sum_{i}(X_{i}))^2}{N}\)
gelijk aan
\(\bar{X}^2\)
?
\(\frac{(\sum_{i}(X_{i}))^2}{N}=N\left(\frac{\sum_{i}(X_{i})}{N}\right)^2\)
Wat is er nu gebeurt?

Berichten: 47

Re: Sommatiestap

Drieske schreef:Vanaf hier maak je het al veel moeilijker dan nodig... Het kan wel werken, dat heb ik niet volledig gecontroleerd. Maar het lijkt me nuttiger om je op het juiste pad te brengen :) .

Substitueer eerst je oplossing voor
\(\beta_{0}\)
Wat is er nu gebeurt?
Ja, ik begrijp wat hier gebeurt. Hierbij alle stappen:
\( \frac{(\sum_{i=1}^{N}X_{i})^{2}}{N} \cdot \frac{N}{N}\)
en dan volgt dat.

Dus nu kom ik een stukje verder:
\(\sum^{N}_{i=1}(Y_{i}X_{i}) - (\frac{\sum^{N}_{i=1}(Y_{i})\sum^{N}_{i=1}(X_{i})}{N}) = \hat{\beta_{1}} (\sum^{N}_{i=1}(X_{i}^2)-(N\bar{X}^{2}))\)
Alleen nu is de vraag hoe krijg ik aan de LHS de dingen tussen haakjes aan de meest rechte kant bij elkaar?

Gebruikersavatar
Berichten: 10.179

Re: Sommatiestap

Nou ik ben dus een beetje bezig geweest. Ik heb een probleem met het bewijzen van
\(\sum^{N}_{i=1}(Y_{i}-\overline{Y}-\hat{\beta_{1}}(X_{i} - \overline{X})) \overline{X}=0\)
, hoe komt die
\(\bar{X}\)
daar? :)
Nou, die zet ik daar zelf, omdat deze mij nuttig blijkt nadien. Immers, als dat geldt, betekent dat:
\(\sum^{N}_{i=1}(Y_{i}-\overline{Y}-\hat{\beta_{1}}(X_{i} - \overline{X})) X_i - \sum^{N}_{i=1}(Y_{i}-\overline{Y}-\hat{\beta_{1}}(X_{i} - \overline{X})) \overline{X}=0\)
dat op zijn beurt, is dan weer hetzelfde als:
\(\sum^{N}_{i=1}(Y_{i}-\overline{Y}-\hat{\beta_{1}}(X_{i} - \overline{X}))(X_i - \overline{X}) = 0\)
,

en dat is dan weer:
\(\sum^{N}_{i=1}((Y_{i}-\overline{Y})(X_{i} - \overline{X})-\hat{\beta_{1}}(X_{i} - \overline{X})^2) = 0\)
Zie je het nu volgen?

Om te bewijzen dat
\(\sum^{N}_{i=1}(Y_{i}-\overline{Y}-\hat{\beta_{1}}(X_{i} - \overline{X})) \overline{X}=0\)
, besef dat
\(\overline{X}\)
een constante is en voor de som mag.
Zoek je graag naar het meest interessante wetenschapsnieuws? Wij zoeken nog een vrijwilliger voor ons nieuwspostteam.

Berichten: 47

Re: Sommatiestap

Drieske schreef:Nou, die zet ik daar zelf, omdat deze mij nuttig blijkt nadien. Immers, als dat geldt, betekent dat:
\(\sum^{N}_{i=1}(Y_{i}-\overline{Y}-\hat{\beta_{1}}(X_{i} - \overline{X})) X_i - \sum^{N}_{i=1}(Y_{i}-\overline{Y}-\hat{\beta_{1}}(X_{i} - \overline{X})) \overline{X}=0\)
dat op zijn beurt, is dan weer hetzelfde als:
\(\sum^{N}_{i=1}(Y_{i}-\overline{Y}-\hat{\beta_{1}}(X_{i} - \overline{X}))(X_i - \overline{X}) = 0\)
,

en dat is dan weer:
\(\sum^{N}_{i=1}((Y_{i}-\overline{Y})(X_{i} - \overline{X})-\hat{\beta_{1}}(X_{i} - \overline{X})^2) = 0\)
Zie je het nu volgen?

Om te bewijzen dat
\(\sum^{N}_{i=1}(Y_{i}-\overline{Y}-\hat{\beta_{1}}(X_{i} - \overline{X})) \overline{X}=0\)
, besef dat
\(\overline{X}\)
een constante is en voor de som mag.
Ah inderdaad, ik zie het volgen! Maar dat trucje kon ik niet uit mezelf bedenken :) . Dus vraag ik me ook nog af hoe ik eigenlijk verder ga met waar ik was gebleven.

Gebruikersavatar
Berichten: 10.179

Re: Sommatiestap

Dit is alleszins de klassieke manier om het aan te pakken. Bovendien op een examen ook minstens een blad korter :) . En kun je nog bewijzen dat
\(\sum^{N}_{i=1}(Y_{i}-\overline{Y}-\hat{\beta_{1}}(X_{i} - \overline{X})) \overline{X}=0\)
? Dat is sowieso een mooie oefening.

Jouw manier heb ik nog niet uitgewerkt. Dus of je er überhaupt komt zo, weet ik niet.

Een aanzet. Je hebt:
\(\hat{\beta_{1}} (\sum^{N}_{i=1}(X_{i}^2)-(N\bar{X}^{2}))\)
. Dat wordt:
\(\hat{\beta_{1}} \sum^{N}_{i=1}((X_{i}^2) - \overline{X}^2) = 0\)
.

Dit kun je nu schrijven als:
\(\hat{\beta_{1}} \sum^{N}_{i=1}((X_{i} - \overline{X})^2 + 2 X_i \overline{X}) = 0\)
.
Zoek je graag naar het meest interessante wetenschapsnieuws? Wij zoeken nog een vrijwilliger voor ons nieuwspostteam.

Berichten: 47

Re: Sommatiestap

Ik ga even verder proberen:
\(\sum^{N}_{i=1}(Y_{i}X_{i}) - (\frac{\sum^{N}_{i=1}(Y_{i})\sum^{N}_{i=1}(X_{i})}{N}) = \hat{\beta_{1}} (\sum^{N}_{i=1}(X_{i}^2)-(N\bar{X}^{2}))\)
\(\sum^{N}_{i=1}(Y_{i}X_{i}) - (\frac{\sum^{N}_{i=1}(Y_{i})\sum^{N}_{i=1}(X_{i})}{N}) = \hat{\beta_{1}}(\sum^{N}_{i=1}(X_{i}-\bar{X})^{2}+2\bar{X}\sum^{N}_{i=1}(X_{i}))\)
Notitie: ik snap hoe de stap van @Drieske is gedaan, want je werkt "tegen" het effect dat
\((X_{i}-\bar{X})^{2}\)
creëert.

Nu pas ik toe wat safe deed (corrigeer me als ik fout zit).
\(\sum^{N}_{i=1}(Y_{i}X_{i}) - (\frac{\sum^{N}_{i=1}(Y_{i})\sum^{N}_{i=1}(X_{i})}{N}) = \hat{\beta_{1}}(\sum^{N}_{i=1}(X_{i}-\bar{X})^{2}+2N\bar{X}^{2})\)
\(N\sum^{N}_{i=1}(Y_{i}X_{i}) - (\sum^{N}_{i=1}(Y_{i})\sum^{N}_{i=1}(X_{i})) = \hat{\beta_{1}}(N\sum^{N}_{i=1}(X_{i}-\bar{X})^{2}+2N^{2}\bar{X}^{2})\)
\(\frac{N\sum^{N}_{i=1}(Y_{i}X_{i}) - (\sum^{N}_{i=1}(Y_{i})\sum^{N}_{i=1}(X_{i}))}{(N\sum^{N}_{i=1}(X_{i}-\bar{X})^{2}+2N^{2}\bar{X}^{2})} = \hat{\beta_{1}}\)
Ik denk dat ik tot zover kan komen, nu ben ik ook van de vervelende deelstreep af in de teller.

Gebruikersavatar
Berichten: 10.179

Re: Sommatiestap

bsc.j.j.w schreef:Nu pas ik toe wat safe deed (corrigeer me als ik fout zit).
\(\sum^{N}_{i=1}(Y_{i}X_{i}) - (\frac{\sum^{N}_{i=1}(Y_{i})\sum^{N}_{i=1}(X_{i})}{N}) = \hat{\beta_{1}}(\sum^{N}_{i=1}(X_{i}-\bar{X})^{2}+2N\bar{X}^{2})\)
Hier ben je een
\(\sum_i X_i\)
kwijt gespeeld in de laatste term. Zie je dat?

Eerlijk? Het ziet er hopeloos uit om dit ooit nog juist te krijgen. Van mij mag je blijven proberen, maar ik vrees ervoor.

Mijn trucje, lijkt misschien een trucje, maar dat is het niet. Je hebt namelijk een doel om naartoe te werken (okee, degene die de formule bedacht, had dat doel niet, maar dat doet er, naar mijn mening, minder toe).

Je weet dat er zou moeten gelden:
\(\beta_1 = \frac{\sum^{N}_{i=1}(Y_{i}-\bar{Y})(X_{i}-\bar{X})}{\sum_{i = 1}^{N} (X_i - \bar{X})^2}.\)
(1)

Je weet ook dat je met differentiëren bekomt:
\(\sum^{N}_{i=1}(Y_{i}-\overline{Y}-\hat{\beta_{1}}(X_{i} - \overline{X})) \overline{X}=0.\)
(2)

Breng bij (1) de noemer naar links (eigenlijk: links en rechts vermenigvuldigen), vervolgens alles aan één kant zetten en je krijgt
\(\sum^{N}_{i=1}((Y_{i}-\overline{Y})(X_{i} - \overline{X})-\hat{\beta_{1}}(X_{i} - \overline{X})^2) = 0.\)
Zo kun je blijven terugwerken en zo het trucje ontdekken. Vervolgens schrijf je alles in omgekeerde volgorde op. Zie je dit?
Zoek je graag naar het meest interessante wetenschapsnieuws? Wij zoeken nog een vrijwilliger voor ons nieuwspostteam.

Berichten: 47

Re: Sommatiestap

Na gisteravond, heb ik inderdaad ook de hoop opgegeven :) . Dat "trucje" is inderdaad te vinden door backtracking ^^. Super bedankt voor het helpen, ik denk dat ik dit nu met rust laat.

Gebruikersavatar
Berichten: 10.179

Re: Sommatiestap

Als tijd mijn vriend wil zijn, zal ik straks eens denken of het zonder 'trucje' kan :) .

Voor nu alvast: graag gedaan :) !
Zoek je graag naar het meest interessante wetenschapsnieuws? Wij zoeken nog een vrijwilliger voor ons nieuwspostteam.

Reageer