• Shuffle
    Toggle On
    Toggle Off
  • Alphabetize
    Toggle On
    Toggle Off
  • Front First
    Toggle On
    Toggle Off
  • Both Sides
    Toggle On
    Toggle Off
  • Read
    Toggle On
    Toggle Off
Reading...
Front

Card Range To Study

through

image

Play button

image

Play button

image

Progress

1/22

Click to flip

Use LEFT and RIGHT arrow keys to navigate between flashcards;

Use UP and DOWN arrow keys to flip the card;

H to show hint;

A reads text to speech;

22 Cards in this Set

  • Front
  • Back

1. Hur placeras regressionslinjen i förhållande till observerade datapunkter? (2p)

Så att man minimerar summan av residualerna (dvs avstånden mellan de observerade punkterna och de predicerade värdena (i kvadrat).

2. Beskriv formeln för regressionslinjen (ledtråd: ”a”, ”b”).

y= a + bx (a är interceptet, dvs där linjen skär y-axeln, b är reg- kof eller linjens lutning dvs hur mkt ökar y när x ökar med 1, om den är 0 finns inget samband)

3. Allt annat konstant, vad händer med regressionslinjen när korrelationen mellan prediktorn och utfallsvariabeln minskar?

Den blir flackare, dvs reg kof b närmar sig 0.

4. Regressionslinjen går alltid genom en viss punkt. Vilken? (2p)

medelvärdet på x-variabeln (prediktionsvariabeln, oberoende variabel) och medelvärdet på y-variabeln (beroende variabeln, utfallsmåttet).

5. På vilket sätt skiljer sig β (beta) från ”den ordinarie” regressionskoefficienten b? Vilken fördel har β jämfört med b? (2p)

Beta är den standardiserade reg kof, till skillnad från b som är den ostandardiserade. När vi använder beta har vi gjort om till z-poäng så att medelvärde är 0 och standardavvikelse1. Står alltså för hur mycket den beroende varaibeln förändras (i SD räknat) när den oberoende ökar med 1 SD. Fördelen är att det är oberoende av måttenhet och därför kan man jämföra olika beta-kof med varandra (kan man ej göra med de ostandardiserade. Kan variera från -1 till 1.

6. Vad innebär ”regressions SS” respektive ”residual SS” vid en enkel regressionsanalys? (2p)

Regressions SS (typ förklarad varians) är de sum of squares som återstår av det totala SS när vi ersätter observerade värden med predicerade. Residual-SS (typ oförklarad varians) är summan av de kvadrerade avvikelserna från reg linjen. De SS som går förlorade när observerade värden ersätts med predicerade.

7. Vid regressionsanalys använder man sig av två olika frihetsgrader (df). Vad kallas dessa och hur beräknas de? (2p)

Regressionsfrihetsgrader = antalet prediktorer (p) t ex 1 i enkel reg analys. Residualfrihetsgrader är N-p-1 (tot antal personer – antal prediktorer – 1).

8. Vad står ”R” respektive ”R2för?

R = korrelation mellan respondenternas faktiska värden på den beroende variabeln och de värden de prediceras ha utifrån regressionsmodellen. Kallas för ”multipel korrelation”.


R 2 = Den multipla korrelationen i kvadrat. Anger hur stor andel, i procent, av variansen i den beroende variabeln som kan förklaras utifrån variansen i prediktorerna.


9. Vad har man för antaganden angående varians och fördelning i utfallsvariabeln vid enkel regressionsanalys?

Två antaganden om hur det ser ut i populationen som stickprovet är draget ur: 1: variansen i y-variabeln samma för alla nivåer av x. 2: y-värdena normalfördelade för alla nivåer av X.

10. Vad skiljer multipel från enkel regressionsanalys? (1p)


Antalet prediktorer, i multipel har man två eller flera!

11. Vad innebär kollinearitet? Beskriv något mått på kollinearitet och någon tumregel vad den bör anta för värden.


Om det finns en starkt samband mellan variablerna, så att de korrelerar högt med varandra (dvs en OV kan förklarar utifrån en annan OV, då har den kollinearitet). Då kan närvaron av den ena störa den andra och man kan få konstiga resultat. Tolerance = 1-förklarad varians/R i kvadrat när man använder den ena prediktions som BV och kollar hur mkt den andra prediktorn förklarar variationer (mha enkel reg analys). Ska vara 0,4-1 dvs max dvs högst 60 % av variansen i en prediktor ska förklaras av hur man ligger på den andra prediktorn.

12. Vad innebär ”adjusted R square”?

Hur mkt man i genomsnitt kan förklara i andra stickprov (lika stora) dragna ur samma population, med den här modellen (lägre eftersom modellen är gjord för att ”passa” just vårt stickprov). Större stickprov – då kommer det vara mindre skillnad mellan R2 och adjusted R2.

13. Vad kan man anta om ANOVA-tabellen vid en regressionsanalys visar på en signifikant F-kvot?

Att modellen (med de prediktorer man har) är signifikant bättre än slumpen på att predicera värden på utfallsvariabeln. Mindre än 5% risk att man säger att modellen kan predicera trots att den inte kan det, typ. Åtminstone 1 av prediktorerna är signifikant/har effekt.

14. Vad anger b- och β-koefficienterna vid en multipel regressionsanalys? (2p)

Exempel: effekten av medicin (på livsglädje) givet att man konstanthåller terapi och vice versa. T ex b- en ökning i terapi med 1 skalsteg är associerat med 1,059 ökning i livsglädje, om man konstanshåller medicin. Beta-kof anger hur mkt BV ändras i SD räknat om den/de andra konstanthålls och OV/prediktorn ökar med 1 SD.

15. Beskriv selektionsmetoderna ”Enter” samt ”Stepwise”. (2p)

enter = alla OV tas med och behandlas som om de vore sist i hierarkin. Kollar om det blir sig ökning när man tar med fler variabler (F change). Man använder det för att kontrollera t ex SES, rökning osv, dvs sist lägger man till den variabel man är intresserad av.


Stepwise är en kombination och backward och forward. Börjar som forward dvs kollar om nån av prediktorerna bidrar till förklarad varians. När man tar med nya prediktorer kan det hända att nån av de gamla slutar vara signifikant, då tas den bort.


16. Beskriv, steg för steg, hur man skulle gå tillväga för att testa om en viss variabel X kan antas ha en kurvlinjär effekt på en annan variabel Y. (2p)

formeln är typ y = b0 + x1b + x1b i kvadrat


Omvandla variabeln till Z-värden för att inte få problem med kollinearitet (mellan xb och kvadrerad xb).


Sen måste man kontrollera för enklare effekter, t ex den linjära effekten. Om kurvlinjärt: kvadrerad term signifikant (Zmed) men inte den linjära. Om konstanten framför x i kvadrat är neg är det en hästskoform, om den är pos är det ett U.

17. Beskriv, steg för steg, hur man skulle gå tillväga för att testa om två variabler X och Z kan antas ha en interaktionseffekt på en tredje variabel Y. (2p)

Vanligaste är att anta att effekten är linjär.
z-transformera (undvika kolineraritet).
Applicera modell. Låt tredje variabeln vara Y värdet i en regressionanalys.


18. Tänk dig att vi finner, vid en multipel regressionsanalys, att regressionskoefficienten för prediktor X är lika med +0,3, att regressionskoefficienten för prediktor Z är lika med -0,2, och att koefficienten för interaktionstermen X × Z är lika med +0,4 (alla koefficienter är signifikanta). Beskriv hur värdena +0,3; -0,2; och +0,4 kan tolkas.

+0,3 är effekten av prediktor X på BV när prediktor Z är noll.


-0,2 är effekten av prediktor Z på BV när prediktor X är 0.


+0.4 är interaktionseffekten av Z och X. Dvs när de båda tillsammans ökar ett steg så ökar BV med 0.4


19. Säg att vi har en kategorivariabler med fyra kategorier som vi vill ta med som en prediktor i en regressionsanalys. Beskriv hur man skall göra.


Göra om till Dummy-variabler. T ex behandling A, B och C. Lägg in dikotoma variabler, typ ”behandling B 0/1” och ”behandling C 0/1”. Behandling A är 0 på båda.


Antalet Dummy-variablen är antalet katoegorier minus 1. Man analyserar effekten av en behandling i förhållande till en referenskategori.


20. När är logistisk regression att föredra framför linjär regression? Varför?


När man ska predicera värden på en dikotom variabel, BV (istället för kontinuerlig BV). Prediktorerna kan vara kontinuerliga eller dikotoma. Man predicerar den naturliga log av oddsen att man tillhör en viss kategori (kategori 1). Man undviker problem med orimliga/konstiga predicerade värden

21. Säg att en kontinuerlig prediktor X får en regressionskoefficient på +0,2 (p < .05) vid en logistisk regression (binär). Beskriv vad värdet +0,2 står för.

För varje ökning i vikt med ett kg så ökar den naturliga logaritmen för oddsen att man ska tillhöra den predicerade kategorin för 0,2. Om 0 – händer inget med oddsen, om neg – oddsen minskar. Om man tar e upphöjt i detta får man odds (och den kan tolkas i procent).


22. Beskriv vad ”predicerade värden”, ”residualer” och ”DfBeta” innebär. Beskriv hur man kan använda sig av dessa för att ”diagnostisera” resultatet från en regressionsanalys.

Predicerade värden är de värden man får om man följer regressionslinjen. dvs de värden som ett visst x värde ger på y.
Residualer är avståndet mellan uppmätta värden och regressionslinjen.


Dfbeta är differensen mellan regressionskoefficienten med alla dat och regressionskoefficienten med den aktuella observationen borttagen.