Regressionsanalys: Interaktionseffekter med kontinuerliga variabler

I det här inlägget ska vi:

  1. Gå igenom när man kan använda interaktionseffekter med kontinuerliga variabler
  2. Hur man gör en sådan analys
  3. Hur man räknar ut effekten vid olika värden av den modererande variabeln
  4. Hur man räknar ut konfidensintervallen

Ett bra verktyg när man vill pröva olika hypoteser är att göra en regressionsanalys med interaktionseffekter, som jag skrivit om i ett tidigare inlägg. Man utgår i modellen från att effekten av en oberoende variabel beror på värdet av en annan oberoende variabel, vilket ofta är rimligt att anta.

I den tidigare guiden skrev jag om hur det här går till när den modererande variabeln (alltså den som avgör vilken effekt den andra variabeln har) är en dummyvariabel, det vill säga har bara två värden. I det här inlägget tänkte jag istället skriva om hur man göra när man har två kontinuerliga variabler, alltså skalor.

Läs mer

Guide: Regressionsdiagnostik – heteroskedasticitet, del 2

Detta är del två av vår genomgång av heteroskedasticitet. Om du vill veta mer om vad detta är och varför det kan innebära ett problem för din regression, gå genast tillbaka till del ett.

Läs mer

Guide: Stapeldiagram med error bars

Guide: Stapeldiagram med ”error bars”

I den här guiden ska vi gå igenom:

  • Varför det kan vara intressant att göra ett stapeldiagram med error bars
  • Hur man gör ett stapeldiagram med error bars
  • Hur det förhåller sig till signifikanstestning med ANOVA

När man redovisar resultat från statistiska analyser bör huvudmålsättningen vara att det ska vara så enkelt som möjligt för läsaren att förstå vad man har kommit fram till. Ett bra medel för att göra det lätt för läsaren är att använda olika typer av grafiska diagram. Ett diagram som många förstår och snabbt ger en överblick är stapeldiagram. De lämpar sig till exempel väl för at redovisa medelvärden i olika grupper. I experimentella studier är det vanligt att man redovisar medelvärdena i de olika experimentgrupperna med ett stapeldiagram, och så gör man sedan den riktiga analysen med en ANOVA.

Man kan också lägga till ”error bars”, streck som visar konfidensintervallet kring medelvärdena för att ge läsaren en indikation på om det är troligt att medelvärdena är signifikant åtskilda.

Läs mer

Spelar skalnivåerna i SPSS någon roll?

En viktig sak att tänka på när man gör statistiska analyser är vilken skalnivå variablerna man använder sig av befinner sig på.

Frukt

Nominalskalor är kategoriseringar. Variabeln ”Frukt” är till exempel en nominalskala – det finns bananer, päron, äpplen och så vidare. De är olika, men ingen är mer ”frukt” än någon annan. De går inte att rangordna.

Ordinalskalor är kategoriseringar som dessutom har en inbyggd rangordning. En skala som har alternativen ”Mycket bra” ”Ganska bra” ”Varken bra eller dåligt” och så vidare är till exempel en ordinalskala. ”Mycket bra” är bättre än ”Ganska bra”, men det går inte att avgöra om avståndet mellan ”Mycket bra” och ”Ganska bra” är lika stort som avståndet mellan ”Ganska bra” och ”Varken bra eller dåligt”. Det kallas att skalan inte har ”ekvidistans”.

Intervallskalor är kategoriseringar, har rangordning, och ekvidistans. Centimeter är en sådan skala. 5 cm är mer än 4 cm, och avståndet mellan 5 och 4 cm är lika stort som avståndet mellan 4 och 3 cm.

Vilka analystekniker man kan använda sig av beror på vilken skalnivå variabeln befinner sig på. Man kan till exempel egentligen bara räkna medelvärden på intervallskalor. Det är ju befängt att försöka räkna fram ett medelvärde på två bananer, ett päron och en apelsin. Väldigt många analystekniker bygger på att man räknar medelvärden (till exempel t-test, ANOVA, regressionsanalyser), vilket gör att den beroende variabeln måste vara på intervallskalenivå. Det är dock inte helt ovanligt att man av bekvämlighetsskäl gör sådana analyser på ordinalskalor ibland också, men det är alltså inte statistiskt korrekt.

I SPSS kan man ställa in vilken skalnivå variablerna befinner sig på. Alternativet ”Scale” motsvarar intervallskala. De inställningarna påverkar däremot inte analyserna. SPSS protesterar inte om du använder en nominalskala som beroende variabel i en regressionsanalys. Det måste man hålla koll på själv.

Det enda fallet där det spelar roll, vad jag vet, är när man gör grafer. Då är det viktigt att inställningarna är de rätta.

Guide: Regressionsdiagnostik – heteroskedasticitet, del 1

I detta inlägg ska vi gå igenom problem med heteroskedasticitet (och inte bara hur svårt det är att stava och uttala). Heteroskedasticitet är ett av de vanligare problemen som kan uppstå i, och försvåra tolkningen av, en regressionsanalys. Heteroskedasticitet innebär i korthet att variansen hos feltermerna inte är konstant; det vill säga att, när värdet på oberoende variabel (x) ökar, så minskar eller /ökar den oförklarade variationen i beroende variabel (y). Är spridningen jämn råder motsatsen homoskedasticitet.

Läs mer

Guide: Statistisk ”power” och urvalsstorlek i experimentell design

I den här guiden ska vi gå igenom:

  • Vad statistisk ”power” är
  • Hur man räknar ut urvalsstorlek för att få rätt power
  • Ett empiriskt test av teorin
  • En kortversion för dig som inte orkar läsa hela inlägget

Experimentell metod lade grunden för den vetenskapliga revolutionen som ledde fram till fantastiska framsteg inom framförallt naturvetenskap och medicin från 1600-talet och framåt. På senare tid har experimentell metod även vunnit insteg inom samhällsvetenskapen.

Grundprincipen för experimentell metod är att jämföra en kontrollgrupp med en experimentgrupp, som man utsätter för någon behandling. Om experimentgruppen skiljer sig tillräckligt mycket åt från kontrollgruppen förkastar vi den så kallade nollhypotesen – att behandlingen inte haft någon effekt. Vanliga metoder för att pröva skillnaden mellan två eller flera grupper är t-test eller variansanalys. Med hjälp av dessa metoder kan vi avgöra om det är troligt att en skillnad mellan grupperna beror på slumpmässig variation, eller om den kan tillskrivas behandlingen.

Läs mer