Springen naar inhoud

Spss hierarchische regressieanalyse


  • Log in om te kunnen reageren

#1

marielle89

    marielle89


  • 0 - 25 berichten
  • 1 berichten
  • Gebruiker

Geplaatst op 21 januari 2012 - 20:59

Hallo,

Voor mijn M-these heb ik een hierarchische regressieanalyse uitgevoerd, maar ik snap niet goed hoe ik de output moet interpreteren.

Geplaatste afbeelding

Klopt het dat geslacht en extraversie samen stress voorspellen (p < .000, te zien in tabel ANOVA, model 2), of alleen geslacht (te zien in tabel coefficients, blok 2, extraversie p = .090)?

En als ik dit wil noteren en ik wil de Beta geven van geslacht, welke moet ik dan doen? Die in model 1 of 2 staat?

Alvast bedankt.

Marielle

Dit forum kan gratis blijven vanwege banners als deze. Door te registeren zal de onderstaande banner overigens verdwijnen.

#2

hanzwan

    hanzwan


  • >100 berichten
  • 132 berichten
  • Ervaren gebruiker

Geplaatst op 22 januari 2012 - 01:24

Hallo marielle, op dit forum is het niet de bedoeling dat iets direct wordt voorgekauwd en zal je daarom wat dingen geven om naar te kijken.

Ten eerste geven beide modellen een B (beta) aan de beide variabele, daarnaast is er een constante die in dit model de waarde 10.801 aangeeft. In beide modellen zijn de 'invloeden' van de variabelen significant. Echter, dit hoeft niet te betekenen dat het model met 2 variabelen beter is. Of iets 'beter' is dan het ander is moeilijk en op meerdere manieren te interpreteren. Daarom zou ik het hier houden tot de discussie over R^2 (of ook wel R-squared).

Het doel van R-squared is om te bepalen in hoeverre de variatie in Y (daarmee wordt bedoeld hoe de individuele geobserveerde waardes van DeltaHr afwijken van het gemiddelde van Delta HR) verklaard worden door de variabelen X1 (Geslacht) en X2 (extraversie). Als die 2 variabelen samen beter in staat zijn om die variatie/afwisseling/schommeling in Y te kunnen uitleggen dan het ene variabel zou je kunnen zeggen dat het ene model dus sterker is dan het ander. R-squared wordt gerekend door:
SSregression/SStotal

Deze definitie geld voor een model van 1 variabel. Misschien heb je vanzelf al door dat wanneer je meer variabelen hebt de SSregression eigenlijk altijd alleen maar zal toenemen (het is namelijk berekent door van verschillen tot het gemiddeld het kwadraat te nemen; en een kwadraat is altijd positief). Dit zou dan dus betekenen dat elke variabele alleen maar de uitleg van het model kan verbeteren.

Om het effect van domweg allemaal variabelen toe te voegen en zo je model te versterken teniet te doen wordt de term R-squared-adjusted of adjusted R-squared gebruikt. Deze methode houd rekening met het aantal variabelen en eist dus dat een extra variabel toevoegen meer waarde toevoegt dan alleen maar het op puur geluk verbanden zoeken*, deze kan zo worden berekent:

1-(1-R^2)* (N-1)/(N-P-1)
n=aantal observaties
p=aantal variabelen.

Dus in je model van 2 variabelen kun je beter de adjusted r-square gebruiken.

Bereken voor het 1-variabel model de r-square en voor het 2 variabele model de adjusted r-square en je zult de verklarende kracht van beide modellen kunnen vergelijken (hoger getal is betere verklaring).

Ik hoop dat je hier wat mee kan, als de r-square methode niet genoeg is hoor ik het graag, dan zou je bijvoorbeeld kunnen kijken naar de colineairiteit van de onderlinge variabelen maar ik vermoed dat een r-squared methode hier voldoet.



*klopt niet helemaal maar voor een introductie is het samenhangend.

Veranderd door hanzwan, 22 januari 2012 - 01:26






0 gebruiker(s) lezen dit onderwerp

0 leden, 0 bezoekers, 0 anonieme gebruikers

Ook adverteren op onze website? Lees hier meer!

Gesponsorde vacatures

Vacatures