Guide: Regressionsanalys

Vi ska i det här inlägget gå igenom:

  • Vad är regressionsanalys?
  • Hur man gör en bivariat regressionsanalys i SPSS
  • Hur man gör en multipel regressionanalys i SPSS
  • Hur man tolkar resultaten

Längst ner i inlägget finns också videoguider.

Regressionsanalys syftar till att visa effekten av en variabel (den oberoende variabeln) på en annan (den beroende variabeln). Till exempel: Hur påverkas en persons längd samme persons resultat på 100 meter löpning? Eller: Hur påverkar ett lands grad av etnisk fragementering BNP i landet?

Regressionsanalys kan vara både bivariat och multivariat. I bivariat analys ingår endast två variabler – en oberoende variabel och en beroende variabel. I multivariat analys ingår också en eller flera kontrollvariabler. En kontrollvariabel är en variabel som vi misstänker kan påverka vårt egentliga samband, och som vi därför behöver ”kontrollera bort”.

Ett exempel: Hur påverkar antalet telefoner per invånare i ett land utbredningen av malaria i landet? En bivariat analys visar att länder med många telefoner per invånare har mycket mindre malaria. Beror detta på att telefoner på något sätt motverkar malaria? Antagligen inte. En troligare förklaring är att telefoner är vanligare i rikare länder. I rikare länder har man dessutom råd med malariamediciner, vilket motverkar malaria. Vi måste därför kontrollera bort effekten av rikedom. Alltså, om analysenheterna hade haft samma värde på kontrollvariablerna, vad hade effekten då varit? När vi för in ett lands rikedom i regressionsanalysen visar resultaten att mängden telefoner inte påverkar utbredningen av malaria. I länder med samma nivå av rikedom finns det inga skillnader i malariautbredning mellan länder med många eller få telefoner.

Hur man gör en bivariat regressionsanalys i SPSS.

I det här exemplet undersöker vi frågeställningen: ”Hur påverkas en kommuns skattesats av medianinkomsten i kommunen?” Analysenheterna är i det här fallet kommuner, som det finns 290 av i Sverige. Vi använder data som hämtats från SCB. Om du vill kan du ladda ner datamängden och följa med i stegen själv. Skattesats uttrycks i procent och medianinkomst i tusentals kronor.

Steg 1. Öppna din datamängd.

Steg 2. Från menyn överst på skärmen, välj ”Analyze” -> ”Regression” -> ”Linear”.

Bild 1. Hur du hittar regressionsanalys i SPSS.

Steg 3. I rutan ”Dependent” lägger du in din beroende variabel – den som påverkas. I rutan ”Independent” lägger du in din oberoende variabel – den som påverkar. I det här exemplet lägger vi in skattesats i dependent-rutan och medianinkomst i independent-rutan. Det finns en massa tilläggsfunktioner men de behöver man oftast inte bry sig om. Tryck på ok.

Bild 2. Hur man väljer beroende och oberoende variabel i regressionsanalysfönstret.

Steg 4. Tolka resultaten. Du ska nu få ut resultaten i SPSS output-fönster. Du kommer få ut fyra små tabeller – ”Variables Entered/Removed”, ”Model Summary”, ”ANOVA” samt ”Coefficients”. Vi bryr oss bara om ”Model Summary” och ”Coefficients”.

I ”Model Summary” får vi ett mått på den oberoende variablens förklaringskraft, det vill säga hur väl variationen i den oberoende variabeln förklarar variationen i den beroende variabeln. De intressanta måtten är ”R Square” och ”Adjusted R Square”. De anger andelen förklarad varians mellan 0 och 1 och kan utläsas som procent – ju högre värde, desto bättre förklaringskraft. 0,316 betyder att 31,6 % av variationen i den beroende variabeln förklaras av den oberoende variabeln. Skillnaden mellan ”R Square” och ”Adjusted R Square” är att det justerade måttet tar hänsyn till antalet oberoende variabler som ingår i regressionen och justerar ner måttet något. Om man har många oberoende variabler kan ”R Square” överskatta den förklarade variansen något. Rapporterar man ”Adjusted R Square” borde man därför vara på den försiktigare sidan.

Bild 3. Hur man tolkar resultaten – förklarad varians.

Den allra viktigaste tabelln är dock ”Coefficients”. Vi behöver bry oss om två siffror. Den första står direkt till höger om den oberoende variabeln och är den oberoende variabelns koefficient, eller B-koefficient. I exempelfallet hittar vi talet -,035 till höger om vår oberoende variabel medianinkomst. Den visar vilken effekt ett steg uppåt på den oberoende variabeln – i vårt fall 1000 kronor mer i medianinkomst – påverkar den beroende variabeln – i vårt fall skattesats i procent. Koefficienten visar att om en kommun skulle öka sin medianinkomst med 1000 kronor skulle skattesatsen, enligt regressionsanalysen, minska med 0,035 procent. Detta är regressionsanalysens huvudresultat, och oftast är det intressantaste huruvida effekten är positiv eller negativ. Leder en ökning i den oberoende variabeln till en ökning eller minskning i den beroende variabeln?

Bild 4. Hur man tolkar resultaten – koefficienten.

Vi måste dock veta om den här koefficienten är signifikant, det vill säga om vi med säkerhet kan säga att koefficienten inte är 0. En koefficient som är 0 visar ju att den oberoende variabeln inte har någon effekt på den beroende variabeln. Vi kan få reda på detta genom att se på signifikansnivån som vi hittar längst ut till höger, i det här fallet ,000. Ju lägre tal, desto säkrare kan vi vara på att koefficienten är signifikant, dvs tillförlitlig. Standardgränsvärdet är ,050. Om talet är under detta tal kan vi med 95 procents säkerhet slå fast att koefficienten inte är noll. Är talet över ,050 ska man inte dra för stora växlar på koefficienten – vi kan lika gärna tänka att den är noll.

Man ska dock iaktta en viss försiktighet när det gäller signfikanstest på icke slumpmässiga urval, som i det här fallet. När det är ett slumpmässigt urval kan signifikansen tolkas som ett mått på hur sannolikt det är att det finns en effekt av den oberoende variabeln på den beroende som inte är noll i den större populationen, inte bara i urvalet. Det behöver inte betyda att signfikans är helt ointressant när man använder ett icke slumpmässigt urval. Då kan man mer tolka det som ett mått på hur sannolikt det är att vi skulle se den här effekten om de två variablerna inte hängde ihop över huvud taget ”egentligen”. Men signifikanstesten är utvecklade för att generalisera från slumpmässiga urval till större populationer.

Bild 5. Hur man tolkar resultaten – signifikans.

Hur man gör en multipel regressionsanalys

En multipel regressionsanalys går till på exakt samma sätt som den bivariata regressionsanalysen, med skillnaden att man i steg 3 lägger in sina kontrollvariabler tillsammans med den oberoende variabeln i rutan ”Independents”. Man utläser sedan resultaten på samma sätt. De ska då tolkas som ”effekten av den oberoende variabeln på den beroende variabeln under kontroll för kontrollvariablerna”.

Videoguide
Del 1: Bivariat regressionsanalys

Del 2: Lägga till en kontrollvariabel

70 reaktioner till “Guide: Regressionsanalys

  1. jättebra guide till den bivariata regressionsanalysen. skulle du kunna lägga upp en liknande för multivariat reg.analys? tack!

  2. Ursäkta, såg nu att du lagt till en snabbnotering om multivariata! Jättebra jobb, tack Anders!

  3. Skulle du kunna lägga upp länken till datat så man kan ladda ner det och testa stegen själv?
    Tack för en grym sida!

  4. Hej!
    Jag håller på med min C-uppsats och har stora problem med multivariata analyser. Jag har delat in patienter som antingen positiva eller negativa för ett visst tillstånd. Nu vill jag jämföra om det är någon korrelation mellan detta tillstånd och patientens ålder, antal genomgångna förlossningar och vid vilken ålder hon har sexualdebuterat. Hade betytt mycket om du kunde förklara det för mig för jag har googlat runt ett par timmar nu utan att bli klokare. De numeriska variablerna som till exempel ålder och antal barn är till på köpet korrelerade till varandra så det hade varit bra om man kunde kontrollera bort och bara jämföra en i taget.

    PS. Väldigt bra guider här. DS.

    David

    1. Hej!
      Du lägger in ålder, genomgångna förlossningar och ålder vid sexualdebut som oberoende variabler bara (givet att du tror att det är de som påverkar tillståndet, och inte tvärtom). Då gör det inget att de är lite korrelerade med varandra – SPSS räknar ut den självständiga effekten för varje variabel.

      Men om det är en dikotom beroende variabel (bara två värden) ska man egentligen använda sig av logistisk regression. Du kan läsa lite mer om det här:
      https://spssakuten.wordpress.com/2011/01/11/lasarfraga-logistisk-regression/

      Men det kommer inte bli så väldigt stor skillnad på resultaten.

      /Anders

      1. Tack så mycket för svaret. Använde logistisk regression och det verkar som att faktorn genomgångna förlossningar plötsligt blev icke-signifikant när också ålder togs med i beräkningen.

        Kanon sida!

  5. stämmer det här verkligen?
    ”I exempelfallet hittar vi talet -,035 till höger om vår oberoende variabel medianinkomst. Den visar vilken effekt ett steg uppåt på den oberoende variabeln /…/ skulle skattesatsen, enligt regressionsanalysen, minska med 0,035 procent.” jag förstår det så, att det borde bli 3,5% minskning?

  6. Jag utreder Incoming Aid’s (oberoende variabel?) effekt på HDI (beroende variabel?) inom specifika länder genom en bivariat regressionsanalys. Jag skulle vilja göra två grupper (g1,g2) inom de båda variablerna där grupperna baseras på över/under HDI på 0,400 i varje land. Kan jag välja ut dessa specifika länder (enheter?) inom en variabel eller hur jag kan gå till väga? Länderna har sedan tidigare inget insatt värde. Kan man lägga in en min/max nivå på index och därifrån särskilja länderna i två grupper, och i såfall-hur gör man?

    mvh/ SPSS-Nybörjaren

    1. Hej C!

      Det kan du göra.
      Med ”Data->Select cases” kan du välja att filtrera bort vissa analysenheter, till exempel de som har ett högre eller lägre värde på HDI. Du kan också göra in ny variabel som har två värden: 0 om landet har mindre än 0,4 på HDI och 1 om landet har 0,4 eller över till exempel. Det kan du göra med ”Transform->Recode into different variables”.

      /Anders

      1. Tack för svar!
        Så om jag förstått rätt utifrån andra inlägg här på sidan är det ”If” man väljer för att då ange under vilka vilkor enheterna ska väljas ut. Om så är fallet har jag varit här tidigare och undersökt men inte kommit fram till hur/var man anger antingen +/- 0,400 (HDI) som i mitt fall, för att sedan kunna bilda dessa två grupper.

        /C

      2. Hej igen C!
        Med ”Data->Select cases” kan du använda ”If” för att välja ut enheterna. I rutan klickar du då bara in din HDI-variabel och skriver såhär

        HDI>0,400

        Då väljs bara de länder som har HDI över 400 ut.

        /Anders

  7. Hej

    Jag har en fundering som har mer att göra med hur man rapporterar multivariata regressionsanalyser. Jag förstår att det skiljer en del mellan olika tidskrifter och publikationer, men det verkar ändå finnas en dominerande form. Jag tänker då på att man brukar se en tabell som redovisar en eller flera modeller i kolumner där man för varje oberoendevariabel redovisar standardiserade (eller ickestandardiserade) betavärden.

    Jag vet vad skillnaden på standardiserade och icke-standardiserade betavärden är, men har svårt att få ihop redovisningen av standardavvikelsen i samband med dem.

    Vad jag nu undrar är varför det också är vanligt att sätta ut (men också vanligt att skippa) standardavvikelser för varje prediktor? Är det i rent deskriptivt syfte eller vad ska man egentligen ha det till? Hur blir det förresten i spss om man vill göra det här… Man får ju ut ett resultat som redovisar både standardiserade och icke-standardiserade betavärden, men där finns ju bara en standardavvikelse. Kanske är en dum fråga, men är det den samma för både standradiserade och icke-standardiserade betavärden? Om inte, vilket det inte känns som att det borde vara, är det i så fall så att man aldrig redovisar standardavvikelse om man använder standardiserade betavärden? Vad säger egentligen standardavvikelsen då?

    Spontant tänker jag att man kanske sätter ut det för möjligheten att konstruera konfidensintervall, men sådana kan man ju få direkt så varför i så fall inte sätt ut dem, vilket måste vara mycket lättare för läsaren, eller?

    Förlåt om jag rör till det, men de skilda praktikerna för redovisningen förvirrar mig något. :)

    1. Hej Andreas!
      Den vanligaste formen för presentation av resultat från regressionsanalyser (som jag upplever det) är den jag går igenom i den här guiden:
      https://spssakuten.wordpress.com/2010/01/20/regressionstabeller/

      Det man vanligen redovisar är inte standardavvikelsen utan standardfelet. Ibland skriver man inte ut signifikansnivån och då kan man använda standardfelet för att avgöra om effekten är signifikant eller inte (tumregel: om den ostandardiserade koefficienten är dubbelt så stor som standardfelet är den signifikant på 95%)
      https://spssakuten.wordpress.com/2010/09/17/guide-tolka-standardfel-i-regressionsanalys/

      Utifrån standardfelet kan man alltså både räkna fram signifikans och konfidensintervall. Men ibland skriver man ut konfidensintervallet direkt (en bra idé tycker jag).

      När man redovisar standardiserade beta-värden brukar man oftast ange om de är signifikanta eller inte.

      /Anders

      1. Tack för svaren och hänvisningen till de andra guiderna. Jag borde ha kunnat leta upp dem själv. Så klart handlar det om standardfel och inte standardavvikelse! Bra att reda ut den detaljen! :) Jag vet inte om det är rätt plats att fortsätta diskussionen på (kanske borde jag posta i de andra guidernas kommentarfält?).

        I alla fall… Vad är då fördelen med att redovisa icke stanadardiserade betavärden jämfört med standardiserade? Är det inte både snyggare och enklare att köra på standardiserade varianter med signifikansnivån markerad som stjärnor? Jag förstår poängen med att se den faktiska förändringen i ursprungliga enheter för varje variabel, men när är det bättre än standardiserade varianter? I alla fall för samhällsvetare känns det som om man oftast är intresserad av att finna signifikanta effekter som indikerar det ena eller det andra snarare än att skatta ekvationen med exakta värden, eller?

        /Andreas

      2. Hej igen! Jadu, det är ofta som du säger att man mest är intresserad av om det är en positiv eller negativ effekt, samt om den är signifikant. Dock tycker jag att samhällsvetare i allmänhet borde ta de faktiska ekvationerna på större allvar – metoden går ju ut på det.

        Det beror också på vad det är för data man jobbar med. Om den beroende variabeln till exempel är sannolikhet att gå och rösta, eller genomsnittlig inkomst eller liknande, så är de faktiska värdena ju av stort intresse. Om det däremot är någon skala av enkätfrågor man konstruerat själv så kanske det inte är lika intressant.

        /Anders

    1. Nej, inte nödvändigtvis. Däremot ska residualerna (skillnaden mellan det värde som förväntas utifrån modellen och det faktiska värdet) vara normalfördelade. Och om man har snedfördelade variabler finns det en risk att residualerna inte blir normalfördelade. Vilket i sin tur leder till att man underskattar osäkerheten i analysen (dvs tolkar resultat som ”egentligen” inte borde bli signifikanta som signifikanta).

      /Anders

  8. Hej
    Jag har en fundering rörande vilken typ av datanivå de oberodende variablerna är på. jag har gjort en mulivariat regressionsanalys med oberoende variabler på kvot och nominalnivå (enter all in SPSS). Nu är vi intresserade att också kontrollera för smärtskattning enigt Numerisk rating scale dvs pat anger en siffra mellan 0-10 för sin specifika smärta. NRS brukar vad jag förstår räknas som ordinalnivå för data. Kan jag bara mata in desa siffror i modellen, dvs blanda kvot, nominal och ordinalnivå på de oberoende variablerna?
    MVH/Charlotte

    1. Hej Charlotte!
      Om patienten anger en siffra mellan 0-10 så är det en ordinalskala i strikt mening. Man kan mata in det i regressionsanalysen och låtsas att det är en intervallskala, men det är inte helt korrekt. Nominalskalor behöver definitivt hanteras genom att göra dummyvariabler i en regressionsanalys, och man ska egentligen behandla ordinalskalor på samma sätt också.

      /Anders

  9. Tack för en kort och koncis guide!!!
    Läser stats B i Lund-metodologi och har två korta seminarier på statistik/SPSS där redovisning ingår nu på fredag den 17/2.
    I min grupp tänkte vi göra multipel regressionsanalys som jag tror det heter och letar vi just nu variabler att korsa. Vi måste använda QoG:s kodbok och datamängder i vår analys.

    1. Hej Anonym!
      Om du klickar på ”Statistics” när du gör regressionsanalysen kan du klicka för att du vill ha ”Descriptives”. Där får du ut n-talet.

      /Anders

  10. Hej Anders!

    Tack för en blogg som hjälper många, inklusive mig själv.
    Vill bara uppmärksamma dig på ett litet fel som smugit sig in:
    ”Den visar vilken effekt ett steg uppåt på den oberoende variabeln – i vårt fall 1000 kronor mer i medianinkomst – påverkar den oberoende variabeln – i vårt fall skattesats i procent”.

    Mvh

    Frida

  11. Hej!
    Sitter med d-uppsats och har data från årsredovisningar, endast kvot- och intervallvariabler och datan är för en hel population.. Vi har gjort univariat analys/deskriptiv statistik i vår inledande analys. Vi har fyra stycken olika beroende variabler och en oberoende men även åtta stycken kontrollvariabler. Är det nödvändigt att göra bivariat analys eller ”fångas den bivariata analysen upp” när man gör en multivariat analys? Eller ska vi göra båda? Tacksam för rekommendationer och tips från alla, även tips för test osv.

    1. Hej!
      Finns det något sätt man kan räkna ut oddsratio eller liknande för analyser med linjär regression? De flesta av mina analyser har gjorts med logistisk regression, vilket gör att jag redovisar det mesta med oddsratio och konfidensintervall. Går det att hitta något som motsvarar oddsratio för linjär regression så det blir likvärdiga värden jag redovisar?

      Tack på förhand!

      1. Hej Carlycaramel!
        Nej, det går inte. Syftet med de två olika teknikerna är olika – i logistisk regression försöker man räkna ut sannolikheten att något ska inträffa, medan man i linjär regression är intresserad av effekter.

        /Anders

  12. Hej, tack för blogg som hjälper många med sina statistiska ”problem” jag håller på med min B- uppsats och har använt mig av en logistisk regression, har använt 4 oberoende variabler och 2 beroende och resultatet blev att effekterna inte är statistiskt signifikanta, nu har jag fastnat i resultatet där jag måste beskriva vad de siffrorna jag har fått fram betyder och varför jag inte kan få fram en linjär regression :( har jätte stora problem med detta, hoppas att du kan hjälpa mig! tack i för hand
    MVH
    Sara

  13. Hey har en fråga,

    när man testar en regressionsanalys ed flera andra oberoende variabler men hittar att regressionskoeffiecienten för effekten av X på Y i praktiken är noll (ej signifikant)..hur är detta möjligt?

  14. Write more, thats all I have to say. Literally,
    it seems as though you relied on the video to make your point.
    You obviously know what youre talking about, why waste your intelligence on just posting videos to your blog when you could be giving
    us something enlightening to read?

  15. Hej Anders!
    Jag har ett material med patienter där man mätt flera olika variabler, inklusive tre olika symtomskalor. Går det att använda multivariat regressionsanalys för att sortera ut vilka variabler som samvarierar mest med höga poäng på symtomskalorna? Finns det något problem med att använda många variabler?

    Hälsningar Maria

  16. Tjenare Anders! Hade bara en fråga angående regressionanalysens för och nackdelar, fungerar verkligen metoderna inom regressionanalysen alltid? Finns det några markanta för eller nackdelar?

  17. Tja Anders!
    Jag undrar hur man gör en univariat analys? samt hur man genom en sådan analys kan berätta om olika mätningsnivåer?
    Tack på förhand!

  18. Hej Jag håller på att göra en multivariat regressionanalys. Jag använder mig av en beroende variabel och 10 oberoende variabler. Jag har gjort utfört analysen så att säga. Problemet är bara att i rutan coefficients i outputen så kommer inte alla oberoende variabler upp, utan bara 7 av 10. Vad beror det här på? Och kan jag få fram alla på något sätt?

  19. Hej!

    Jag har försökt förstå mig på vad det är för skillnad mellan en multipel linjär regression och en multivariat linjär regression? som jag förstått det är det du visar ovan: med ett beroende y och flera oberoende x egentligen en multipel regression? (men att det ofta kallas multivariat linjär regression, då det ju är en multivariat analys). Begreppet multivariat linjär regression verkar vara reserverat för regressioner där man på något sätt har flera beroende y? Jag är lite förvirrad, väldigt tacksam om du ville förklara? Stort tack för en bra sida!

    1. Hej Sofia – ursäkta för denna förvirring. Jag hade lärt mig fel och skrev inlägget för länge sen. Du har helt rätt i att det ska vara multipel regression. Jag har ändrat i inlägget nu. Tack för att du uppmärksammade mig på detta!

      /Anders

  20. Hej! Jag ska tolka hur mycket av variationen i den beroende variabeln som INTE kan förklaras med hjälp av prediktorerna i den slutliga modellen (2). Är väldigt förvirrad! Vore tacksam om du kunde hjälpa mig med detta, tack för en grymt bra sida!

  21. Hej!

    Jag sitter med min uppsats just nu och testar hur olika kontrollvariabler påverkar min y-variabel genom att lägga till och ta bort. Vad ska jag fokusera på; högt R2 eller flest signifikanta variabler? Jag menar, ibland är flera variabler signifikanta och efter att man lagt till en ny så blir föregående variabler osignifikanta. Vad är optimalt? :)

  22. Hej,
    Jag undrar om det är någon som vet hur man ska tolka negativa beta-koefficienter? Som jag förstått beta-värden så anger de ökningen i den beroende variabeln i standardavvikelser när den oberoende variabeln ökar med en standardavvikelse. Om till exempel beta-värdet för en oberoende variabel är 0,22 innebär det en ökning på 0,22 standardavvikelser i y då x ökar med en standardavvikelse.
    Mitt problem är att jag är osäker på hur negativa beta-värden ska tolkas. Spelar det någon roll om beta-värdet är negativt eller positivt? Om ett beta-värde till exempel är -1,02 så verkar det konstigt att skriva att den beroende variabeln minskar med -1,02 standardavvikelser då x ökar med en standardavvikelse, eller? Tack så mycket för en jättebra sida!

    //Maria

  23. Hej! Vi håller på med en D-uppsats och har räknat ut en skillnad i testprestation inom samma grupp. Vi har använt oss av Wilcoxon. Nu vill vi gärna göra en regressionsanalys för att undersöka om vissa bakgrundsvariabler, såsom t ex ålder och utbildningsnivå, har påverkat skillnaden mellan testtillfällena. Vi funderar lite kring hur vi skulle kunna göra detta i SPSS. Har du något tips? Tacksam för svar!

  24. Hej! Jag vet inte om du fortfarande svarar på frågor på denna sida men jag vill ställa ett antal i alla falla. Jag skriver en c-uppsats och har fått ut nedanstående resultat och har lite svårt att tolka siffrorna. Jag testar om kvalitet av information påverkar deltagande i val till EP. Kontrollvariabel: tillit till EP

    B-Koefficient 40,132, sig. ,105, R square ,110, t-värdet 1,686 för kvalitet och B-koefficient 17,023, sig. ,019, R square 2,582, t-värdet 2,586 för kontrollvariabeln och siffrorna för den oberoende variabelns varierar när jag inkluderar kontrollvariabeln och ser så här ut: B-Koefficient 39,044, sig. ,096, R square ,316, t-värdet 1,762

    Jag har tolkat alla siffror enligt dina texter men har ändå lite svårt att förstå vissa.

    Fråga 1: Hur tolkar man B-koefficienten? Kan man tolka på samma sätt som du gjorde för den logistiska regressionsanalysen som du gjorde på följande länk? https://spssakuten.wordpress.com/2011/10/01/guide-logistisk-regression/

    Fråga 2: Kan man tala om ett spiruöst samband i detta fall? Hur tolkar man förändringen på oberoende variabeln efter att inkluderat kontrollvariabeln?

    Fråga 3: Finns det en guide som visar hur man dikotomisera? Behöver man köra logistisk regression efter en regressionsanalys?

    1. Hej igen! Jag har tolkat B-koefficienten typ så här:

      Vi ser att B-koefficienten ligger på 40,132 vilket är positiv och ju mer kvalitet av information om EU ökar desto högre värde förväntar man ha på den beroende variabeln. Det innebär även att om den oberoende variabeln ökar med 1 så minskar den naturliga logaritmen av oddset(Ett odds är sannolikheten att någonting ska inträffa, delat med sannolikheten att det inte ska inträffa). för att deltagandet i val till EP ska öka med 0,497. Detta motsvarar 4,013 och innebära att oddset för att den beroende variabeln ska vara 1 minskar med 4 procent om den oberoende variabeln ökar med 1.

  25. Hej
    HJÄLP! Jag har fastnat på en övning där jag skall göra en enkel regressionsanalys på två kvantaitiva variabler. De variabler jag har att förhålla mig till är ålder och attityder till sex. Jag får det till att dessa är kvalitativa variabler på kvotskala (ålder) resp. ordinalskala (attityder) Tänker jag rätt? Blir dessa variabler kvantitativa när man använder SPSS eller hur skall jag få det till att de blir kvantitativa???

  26. Hej!
    Jag behöver hjälp med en fråga jag har här angående OLS regression. Kan man använde den i SPSS eller måste man hitta den på ett annat sätt? Jag har en uppsats att skriva om prisutvecklingen i bostadsmarknad från 2010-2016, för tre städer i Sverige och tänkte hitta relation mellan (den låga räntan nu, befolkningsutveckling, arbetslöshet och disponibel inkomst för hushållen). Vilken metod är bäst att använda? Vilken är beroende eller oberoende och hur vet man? Måste man hitta siffror för prisutvecklingen från t.e.x SCB som jag har gjort på de andra variablerna.
    Tacksam för svar

  27. Hej! Snabb och förhoppningsvis enkel fråga:

    Kan man jämföra bivariata regressioner med varandra?

    Säg att a –> d har ett koefficientvärde på 0,200
    och att b –> d har ett koefficientvärde på 0,300
    och att c –> d har ett koefficientvärde på 0,250

    kan det då fastställas att b har den största påverkan på d?

    Tack för en väldigt bra blogg!

  28. Hej

    I Coefficients fick jag – 14, 456 till höger om den oberoende variabeln. Hur ska jag tolka det ?

  29. Hej, Hur många observationer behöver man egentligen ha för att antagandet om ”sample size” skall anses vara uppfyllt för multipel regression/linjär regression? Hittar lite olika där en föreslår N > 50 + 8m (där m är antalet oberoende variabler) och en annan menar att N>100 är OK, N>200 bra osv. Vår studie har totalt 148 stycken observationer men vi har ju fått plocka bort extremvärden, och dessa observationer är företag då och vi gör två regressioner där först samtliga är med och i den andra är endast företag som utfört utdelning med, och den urvalsgruppen är ju endast 96 st företag efter vi exkluderat extremvärden, är detta OK? Behöver man på något vis motivera att det är uppfyllt? (Vi skriver kandidatuppsats just nu) Tack för ditt svar!

  30. What’s up everyone, it’s my first pay a visit at this
    site, and piece of writing is actually fruitful in favor of me, keep up posting these content.

  31. Hej,

    Vi sitter med vår c-uppsats och funderar lite på om vi ska jag en multipel eller en logistisk regression, för att mäta om det finns samband mellan ungas internetvanor och risken för att utsättas för sexuella närmande på internet. Har någon möjlighet att hjälpa oss?

  32. I don’t even know the way I stopped up right
    here, but I thought this publish was once great.

    I don’t realize who you might be but certainly you are going to
    a well-known blogger if you aren’t already.
    Cheers!

  33. Vid en jämförelse av bivariat regressionsanalys och multivariat regeressions analys så höjs signifikansen på den multivariata regressionsanalysen finns det någon förklaring till detta?

    Mvh

Lämna en kommentar