Lineaire regressie

Moderators: ArcherBarry, Fuzzwood

Reageer
Berichten: 197

Lineaire regressie

beste forumbezoekers,

Onderstel een regressiefunctie:
\(Y_i=\beta_1+\beta_2X_1_i +\beta_3X_2_i\)
waarvan we de concrete waarden voor de beta coëfficiënten kennen.

Stel dat we de regressie opnieuw uitvoeren maar nu enkel rekening houden met de verklarende variable
\(X_1_i\)
waardoor we volgende vorm bekomen
\(Y_i=\beta^*_1+\beta^*_2X_1_i \)


Wat ik niet begrijp is de redenering achter het feit dat
\(\beta^*_2\)
altijd kleiner is dan
\(\beta_2\)
.

Dit zou iets te maken hebben met
\( X_{2i} \)
die nu in de storingsterm zit, maar ik slaag er niet in een volledige redering op te bouwen. Kan er mij iemand hierover wat meer uitleg geven?

Alvast bedankt!

Re: Lineaire regressie

Het is volgens mij niet helemaal juist wat je zegt, nl. dat de
\(\beta^*_2<\beta_2\)
. Dat geldt alleen in absolute waarde, en dan nog alleen in vector/matrix notatie.

Het eerste lijkt me duidelijk, als je een puntenwolk hebt die onder de x-as ligt zijn de regressiewaarden alle negatief en tegengesteld aan dezelfde regressie bij een puntenwolk boven de x-as.

Voor het tweede, nl. dat het in de ééndimensionale situatie niet klopt, zal ik een voorbeeld proberen te verzinnen, even zien wanneer ik tijd heb.

Voor het antwoord op de vraag heb ik mijn statistiekboek nageplozen maar dat stond er niet in. Ik zoek nog even verder.

Re: Lineaire regressie

Inmiddels een voorbeeld gevonden: stel van de punten (-3,-2.2), (-1,1) en (1,5.8) wordt een lineair model opgesteld. Via regressie wordt gevonden y=2x+3.533333.

Het residu ziet eruit als een parabool en dus wordt als nieuw model een kwadratisch model berekend, dit wordt
\(y=0.2x^2+2.4x+3.2\)
Van de oorspronkelijke regressiefunctie is de lineaire factor 2 vergroot tot 2,4 door het introduceren van de variabele x kwadraat. Volgens mij spreekt dit jouw hypothese tegen. Of zie ik dat verkeerd?

Reageer