21
Mixed models Jonathan Harrington Die R-Befehle: mixed.txt pfad = "Das Verzeichnis, wo die Daten gespeichert sind" attach(paste(pfad, "anova1"), sep="") library(c ar) library(langua geR) soa = read.table(paste(pfad, "soa.txt", sep="")) vot = read.table(paste(pfad, "vot.txt", sep="")) library(multcom p) alc = read.table(paste(pfad, "alcdata.txt", sep=""))

Mixed models

  • Upload
    shirin

  • View
    33

  • Download
    1

Embed Size (px)

DESCRIPTION

Mixed models. Jonathan Harrington. Die R-Befehle: mixed.txt. pfad = "Das Verzeichnis, wo die Daten gespeichert sind" attach(paste(pfad, "anova1"), sep=""). library(car). library(languageR). library(multcomp). alc = read.table(paste(pfad, "alcdata.txt", sep="")). - PowerPoint PPT Presentation

Citation preview

Page 1: Mixed models

Mixed models

Jonathan Harrington

Die R-Befehle: mixed.txt

pfad = "Das Verzeichnis, wo die Daten gespeichert sind"attach(paste(pfad, "anova1"), sep="")

library(car)library(languageR)

soa = read.table(paste(pfad, "soa.txt", sep=""))vot = read.table(paste(pfad, "vot.txt", sep=""))

library(multcomp)

alc = read.table(paste(pfad, "alcdata.txt", sep=""))

Page 2: Mixed models

Mixed modelsBaayen, R.H. (in press) Analyzing Linguistic Data: A practical introduction to Statistics. Kapitel 7http://www.ualberta.ca/~baayen/publications/baayenCUPstats.pdf

Artikel in einem Special Issue im Journal of Memory and Language, Vol. 59. insbesondere: Baayen, Davidson & Bates (2008); Quene & van den Bergh (2008); Jaeger (2008).

Frank & Jaeger (April, 2009) Post hoc comparisons Additional Issues: Random effects diagnostics, multiple comparisons

http://hlplab.wordpress.com/2009/05/03/multilevel-model-tutorial/

Levy & Jaeger (2009) A Brief and Friendly Introduction to Mixed-Effects Models in Psycholinguistics

2 Präsentationen hier vorhanden

Erste Veröffentlichung: Pinheiro & Bates (2000). http://www.amazon.com/Mixed-Effects-Models-S-S-Plus/dp/0387989579

Page 3: Mixed models

soa: eine modifizierte Datei von Baayen et al (2008) (selbe Werte, andere Namen)

Subject und Items als Random FactorsSubject und Items als Random Factors

F1 (F1-Werte im Vokal); Vpn (s1, s2, s3), W (Bart, Pfad, Start), Pfinal (medial, final)

3 Vpn ( produzierten 3 Wörter (Bart, Pfad, Start) jeweils 2 Mal: einmal phrasenmedial, einmal phrasenfinal. Unterscheiden sich phrasenmedial und –final in F1?

Faktor W: between/within:

Faktor Pfinal: between/within:

Zuerst eine Abbildung

within

within

Page 4: Mixed models

Signifikanter Unterschied in Pfinal (zwischen long und short)?

Wort * Pfinal Interaktion?

Zuerst eine Abbildungattach(soa)boxplot(F1 ~ Pfinal * W)

Page 5: Mixed models

soa.t = Anova.prepare(soa, c("s", "w", "w", "d"))soa.lm = lm(soa.t$d ~ 1)Anova(soa.lm, idata=soa.t$w, idesign = ~ W * Pfinal)

Type III Repeated Measures MANOVA Tests: Pillai test statistic Df test stat approx F num Df den Df Pr(>F) (Intercept) 1 1.00 1509.78 1 2 0.0006617 ***W 1 0.98 26.67 2 1 0.1356518 Pfinal 1 0.78 7.24 1 2 0.1147994 W:Pfinal 1 0.62 0.81 2 1 0.6186755

Page 6: Mixed models

Jedoch hat Pfinal eindeutig denselben Einfluss pro Wort. d.h. wir sollten hier die Variation zwischen den Wörtern ausklammern. (Dass der Mittelwert von Bart kleiner ist im Vgl. zu Pfad oder Start ist für diese Fragestellung uninteressant - genauso uninteressant wie die Variation zwischen Sprechern).

Subject und Items als Random FactorsSubject und Items als Random Factors

Page 7: Mixed models

Wir wollen also 2 Sorten von Variation gleichzeitig ausklammern:

wegen der Sprecher (Subject as a random factor)

wegen der Wörter (Item as a random factor)

Subject und Items als Random FactorsSubject und Items als Random Factors

Dadurch lösen wir gleichzeitig ein großes Problem in der Statistik (Clark, 1973): 'language as fixed effect fallacy'.

Page 8: Mixed models

Subject und Items als Random FactorsSubject und Items als Random Factors

soa.t = Anova.prepare(soa, c("s", "w", "w", "d"))soa.lm = lm(soa.t$d ~ 1)Anova(soa.lm, idata=soa.t$w, idesign = ~ W * Pfinal)

Fixed: W, Pfinal (beide within)

Random: Subject

bedeutet: signifikante Ergebnisse sind nicht nur für diese Vpn sondern allgemein für ähnliche Sprecher gültig.

signifikante Ergebnisse in Pfinal sind nur für W gültig (Bart, Pfad, Start): d.h. damit die Ergebnisse allgemein für ähnliche Wörter gültig sind, müsste noch einen RM-Manova durchgeführt werden mit Wort als Random Faktor.

Page 9: Mixed models

Subject und Items als Random FactorsSubject und Items als Random Factors

ein by-subject RM-Manova (Subject als Random Faktor)

ein by-item RM-Manova (Wort als Random Faktor)

Die Ergebnisse werden kombiniert in einer Statistik minF'

Keine solchen Komplikationen in einem Mixed-Model

Das Verfahren ist schrecklich (siehe Johnson, 2008)

Page 10: Mixed models

Weitere Vorteile von einem Mixed-ModelWeitere Vorteile von einem Mixed-Model

Vpn

i e a

lang. schnellSprechtempo

Vokal

Sprache engl. oder span.

i e aw1.1w2 w3 w4 w5 w6

between

within

w1.2

w1.3

w1.10

...Mittelwert

Es muss nicht gemittelt werden pro Stufen-Kombinationen

Die Zellen müssen nicht vollständig pro Vpn sein.

Page 11: Mixed models

Nachteile von einem Mixed-ModelNachteile von einem Mixed-Model

library(lme4) und mixed modelling (MM) überhaupt sind noch in der Entwicklungsphase. Daher bugs, häufige code Änderungen und einige Teile des Verfahrens sind in R noch nicht ganz vollständig. Siehe:

Mit MM können zwar Werte aus der t- und F-Verteilung berechnet werden, aber diese lassen sich nur schwierig und vielleicht sogar ungenau in Wahrscheinlichkeiten umsetzen – weil die Freiheitsgrade nicht eindeutig berechnet werden können.

http://wiki.r-project.org/rwiki/doku.php?id=guides:lmer-tests

Page 12: Mixed models

lmer()lmer()

lmer() ist die Funktion für mixed modelling.

3. by-subject intercept adjustment

4. by-item intercept adjustment

1. Neigung

2. Intercept

y = bx + k + eVpn + eW^Eingeschätzte Werte

berechnet ein lineares Modell, in dem der Abstand zwischen eingeschätzen und tatsächlichen Werten minimiert wird

minimiert den Abstand durch REML (restricted maximum likelihood)

muss mindestens einen Random-Faktor enthaltenvereinheitlicht RM-Anova und logistische Regression

x ist ein Faktor-Code* (zB 0 oder 1 für 2 Stufen)

*siehe: http://www.ats.ucla.edu/stat/r/library/contrast_coding.htm

Page 13: Mixed models

F1.lmer = lmer(F1 ~ Pfinal + (1 | Vpn) + (1 | W))

abhängige Variable

unabhängige Variable(n)Vpn und W als Random Factors

lmer()lmer()

1. by-subject and by-item intercept adjustment

= Sprecher- und Wortvariationen werden für Pfinal (ohne zwischen den Stufen zu differenzieren) ausgeklammert.

F1.lmer = lmer(F1 ~ Pfinal + (1 + Pfinal | Vpn) + (1 +Pfinal | W))

2. by-subject and by-item intercept and slope adjustment

= Sprecher- und Wortvariationen werden getrennt für die Stufen (long, short) von Pfinal berechnet und ausgeklammert.

Page 14: Mixed models

lmer()lmer()

Linear mixed model fit by REML Fixed effects: Estimate Std. Error t value(Intercept) 522.111 19.604 26.633Pfinalshort -18.889 5.525 -3.419

print(F1.lmer, corr=F)print(F1.lmer, corr=F) Fixed effects (bezieht sich daher auf Pfinal)

ranef(F1.lmer)ranef(F1.lmer) Random effects (bezieht sich daher auf Vpn und W)

$Vpn (Intercept)s1 -20.557646s2 22.948070s3 -2.390424

$W (Intercept)Bart -27.94979Pfad 14.13553Start 13.81427 summieren auf 0.

auch BLUPS genannt (best linear unbiased predictor). Ein BLUP pro Vpn und pro Wort

y = bx + k + eVpn + eW^

fitted(F1.lmer)fitted(F1.lmer)[1] 473.6037 515.6890 515.3677 454.7148...

Eingeschätzte Werte

Page 15: Mixed models

lmer()lmer()

Linear mixed model fit by REML Fixed effects: Estimate Std. Error t value(Intercept) 522.111 19.604 26.633Pfinalshort -18.889 5.525 -3.419

$Vpn (Intercept)s1 -20.557646$W (Intercept)Bart -27.94979

fitted(F1.lmer)[4][1] 454.7148

Fixed Random

y = bx + k + eVpn + eW^

Eingeschätzer Wert für phrasenmedialer (Stufe, short) Bart, Vpn. s1

contrast(Pfinal)short

long 0short 1

-18.889 * 1 + 522.111 -20.557646 -27.94979 1

[1] 454.7146

Page 16: Mixed models

lmer(), t-Werte und Basis-Kodierunglmer(), t-Werte und Basis-Kodierung

Linear mixed model fit by REML Fixed effects: Estimate Std. Error t value(Intercept) 522.111 19.604 26.633Pfinalshort -18.889 5.525 -3.419

Die Stufe short vom Faktor Pfinal ist 3.419 Standard-Abweichung von der Basis-Stufe desselben Faktors entfernt.

Basis-Stufe levels(Pfinal)

[1] "long" "short"

Die Basis-Stufe kann man mit relevel() auswählen.

(Also: der absolute Abstand zwischen long und short ist 3.419 Standard-Abweichungen).

Page 17: Mixed models

lmer(), t-Werte und Basis-Kodierunglmer(), t-Werte und Basis-Kodierung

Die Basis-Stufe kann man mit relevel() auswählen.

Pfinal2 = relevel(Pfinal, "short")

F1b.lmer = lmer(F1 ~ Pfinal2 + (1 | Vpn) + (1 | W))

Fixed effects: Estimate Std. Error t value(Intercept) 503.222 19.604 25.670Pfinal2long 18.889 5.525 3.419

print(F1b.lmer, corr=F)

Linear mixed model fit by REML Fixed effects: Estimate Std. Error t value(Intercept) 522.111 19.604 26.633Pfinalshort -18.889 5.525 -3.419

Kein Freiheitsgrad, keine p-Werte

Page 18: Mixed models

lmer(), t-Werte, p-Wertelmer(), t-Werte, p-Werte

Linear mixed model fit by REML Fixed effects: Estimate Std. Error t value(Intercept) 522.111 19.604 26.633Pfinalshort -18.889 5.525 -3.419

Die Wahrscheinlichkeit könnte mit der höchst möglichen Anzahl der Freiheitsgrade von der t-Verteilung berechnet werden.

Freiheistgradanzahl = Anzahl der Werte - (Anzahl der Stufen) = 16

2 * ( 1 - pt(3.419, 16)) [1] 0.003516309

Aber der p-Wert ist anti-konservativ (ggf. zu niedrig) und daher nicht zuverlässig.

Page 19: Mixed models

lmer() und MCMC samplinglmer() und MCMC sampling

Um genauere Wahrscheinlichkeiten der im lmer() entstandenen t-Werte zu berechnen, gibt es Markov Chain Monte Carlo sampling (MCMC).

kann zZt. für solche Modelle angewandt werdenF1.lmer = lmer(F1 ~ Pfinal + (1 | Vpn) + (1 | W))

nicht für diese

F1.lmer = lmer(F1 ~ Pfinal + (1 + Pfinal | Vpn) + (1 +Pfinal | W))

Page 20: Mixed models

lmer(), t-Werte und Basis-Kodierunglmer(), t-Werte und Basis-Kodierung

Bitte beachten: es gibt einen Bug in pvals.fnc(), sodass die Werte von F1.lmer (!!) nach der Durchführung der Funktion geändert werden. Daher bitte immer gleich nach pvals.fnc() nochmal die lmer() Funktion duchführen!

F1.lmer = lmer(F1 ~ Pfinal + (1 | Vpn) + (1 | W))F1.fnc = pvals.fnc(F1.lmer)F1.lmer = lmer(F1 ~ Pfinal + (1 | Vpn) + (1 | W))

Page 21: Mixed models

lmer() und MCMC samplinglmer() und MCMC sampling

Estimate MCMCmean HPD95lower HPD95upper pMCMC Pr(>|t|)(Intercept) 522.11 522.13 491.88 554.614 0.0001 0.0000Pfinalshort -18.89 -18.88 -35.94 -1.013 0.0356 0.0035

F1.fnc = pvals.fnc(F1.lmer)

F1.fnc$fixedHighest Posterior Density

2 * ( 1 - pt(3.419, 16))

Die Daten wurden mit einem Mixed Model mit Subject und Word als Random Faktoren und phrasenfinale Längung als unabhängige Variable analysiert. Alle Wahrscheinlichkeiten wurden mit Markov-Chain-Monte-Carlo sampling (MCMC) berechnet (Baayen et al, 2008). Die phrasenfinale Längung hatte einen signifikanten Einfluss auf F1 (t = 3.42, MCMC: p < 0.05).