View
5.641
Download
1
Embed Size (px)
Citation preview
Fachhochschule für angewandtes Management
Fachbereich Medienmanagement
Wintersemester 2008/2009
Seminar „Statistik II“
Dozentin: Marleen Brinks
Statistik II
Analyse eines selbsterstellten Datensatzes
Florian Bechler
13.02.2009
3. Semester
Statistik II
Inhalt
1. Der Datensatz....................................................................................................................4
2. Analyse des Datensatzes..................................................................................................4
2.1. T-Test für eine Stichprobe..........................................................................................4
2.2. T-Test für zwei unabhängige Stichproben..................................................................4
2.3. T-Test für zwei abhängige Stichproben......................................................................5
2.4. Einfaktorielle Varianzanalyse ohne Messwiederholung.............................................5
2.5. Einfaktorielle Varianzanalyse mit Messwiederholung................................................6
2.6. Kruskal-Wallis.............................................................................................................7
2.7. Mann-Whitney U Test als Post-hoc-Test....................................................................7
2.8. Korrelation nach Pearson...........................................................................................8
2.9. Multiple Regression....................................................................................................8
2.10. Chi²-Test für eine Variable......................................................................................9
2.11. Chi²-Test im 2-Gruppen-Vergleich........................................................................10
2.12. Reliabilitätsanalyse...............................................................................................10
3. Zusammenfassung der Ergebnisse.................................................................................11
4. Anhang............................................................................................................................13
4.1. Bericht: T-Test für eine Stichprobe...........................................................................13
4.2. Bericht: T-Test für zwei unabhängige Stichproben..................................................14
4.3. Bericht: T-Test für zwei abhängige Stichproben......................................................15
4.4. Bericht: Varianzanalyse ohne Messwiederholung....................................................16
4.5. Bericht: Varianzanalyse mit Messwiederholung.......................................................17
4.6. Bericht: Kruskal-Wallis..............................................................................................18
4.7. Bericht: Mann-Whitney U Test.................................................................................20
4.8. Bericht: Korrelation nach Pearson............................................................................25
4.9. Bericht: Multiple Regression.....................................................................................25
4.10. Bericht: Chi²-Test bei einer Stichprobe.................................................................28
4.11. Bericht: Chi²-test mit zwei Gruppen......................................................................28
4.12. Bericht: Reliabilitätsanalyse..................................................................................29
Seite 2
Statistik II
5. Eidesstattliche Versicherung...........................................................................................30
Abbildungsverzeichnis
Tabelle 1: Mittelwerte und Standardabweichung der Zufriedenheit in den Abteilungen...........5
Tabelle 2: Unterschiede in der Zufriedenheit zwischen den Abteilungen.................................6
Tabelle 3: Mittelwerte und Standardabweichung der Zufriedenheit mit den Arbeitsaspekten. .6
Tabelle 4: Unterschiede in der Zufriedenheit mit den Aspekten der Arbeit..............................7
Tabelle 5: Unterschiede in der Verteilung der Gehaltsklassen auf die Abteilungen.................8
Tabelle 6: Betawerte und Probability der einzelnen Variablen bei der multiplen Regression. .9
Tabelle 7: Häufigkeit der Abschlüsse.....................................................................................10
Tabelle 8: Verteilung der Gehaltsklassen nach Geschlecht...................................................10
Tabelle 9: Erwartete Verteilung der Gehaltsklassen...............................................................10
Seite 3
Statistik II
1. Der Datensatz
Der Beispieldatensatz soll das Ergebnis einer Umfrage unter den Angestellten eines
Kaufhauses sein. Das Unternehmen möchte anhand der Umfrage herausfinden, inwieweit
die Mitarbeiter mit ihrer Arbeitssituation zufrieden sind, welche Faktoren auf diese
Zufriedenheit einwirken und in welchen Bereichen es Verbesserungsbedarf gibt. Die Daten
sind alle fiktiv. Zur Berechnung der Ergebnisse wurde OpenStat verwendet, alle verwendeten
Berichte aus dem Programm befinden sich im Anhang.
2. Analyse des Datensatzes
2.1. T-Test für eine Stichprobe
Bei diesem Test wird ein Mittelwert mit einer vorgegebenen Größe verglichen. In diesem Fall
bietet es sich an, die durchschnittliche Zufriedenheit aller Mitarbeiter am Arbeitsplatz gegen
einen erwünschten Zielwert zu prüfen. Es sei angenommen, dass die Unternehmensleitung
einen Durchschnittswert von 7 als Ziel vorgibt. Zuerst müssen die Voraussetzungen für
diesen Test geprüft werden: Mit Nges=60 ist der Stichprobenumfang ausreichend groß. Die
Variable muss für einen T-Test normalverteilt sein. Eine Analyse der hier genutzten Variable
„Zufriedenheit mit dem Arbeitsleben“ ergibt im Shapiro-Wilks Test ein p=0,1568, der Lilliefors
Test ergibt „No evidence against normality“, man darf also annehmen dass eine
Normalverteilung vorliegt. Der T-Test selbst liefert folgende Ergebnisse: Der Mittelwert M der
Variablen beträgt 5,883 (SD=2,156). Für t ergibt sich -4,012, für p 0,0000. Die Probability ist
also kleiner als 0,05. Die Abweichung des Mittelwertes vom Zielwert ist signifikant und kein
Zufall in dieser Erhebung. Der Mittelwert ist um 1,117 geringer als die Zielvorgabe.
2.2. T-Test für zwei unabhängige Stichproben
Beim T-Test für unabhängige Stichproben untersuche ich, ob die Arbeitszufriedenheit der
Männer sich von der der Frauen signifikant unterscheidet. Die Gruppe der Männer hat 28
Mitglieder, die Gruppe der Frauen 32, beide Gruppen sind also groß genug für diesen Test.
Die Variable Arbeitszufriedenheit muss jetzt nach Gruppe getrennt auf Normalverteilung
untersucht werden. Für die Gruppe der Männer ergibt sich im Shapiro-Wilks Test ein
p=0,1591 und der Lilliefors Test ergibt „No evidence against normality“, die
Normalverteilungsannahme muss also nicht verworfen werden. Bei der Gruppe der Frauen
ergibt sich im Shapiro-Wilks Test ein p=0,1705, der Lilliefors Test meldet ebenfalls „No
evidence against normality“. Also darf ein T-Test mit diesen Variablen gerechnet werden.
Der Mittelwert für die Zufriedenheit am Arbeitsplatz ist bei den Männern 5,68 (SD=1,52) und
bei den Frauen 6,06 (SD=2,60). Der F-Test auf gleiche Varianzen ergibt ein p kleiner 0,05,
Seite 4
Statistik II
es kann also davon ausgegangen werden dass die Varianzen signifikant unterschiedlich
sind. Deshalb sind die Ergebnisse in der Zeile „Assuming unequal variances“ abzulesen:
Hier sind sie t(50,93)=-0,708 mit p=0,4964. Der Unterschied zwischen den Mittelwerten ist
also nicht signifikant.
2.3. T-Test für zwei abhängige Stichproben
Zwei abhängige Stichproben in diesem Datensatz sind die aktuelle Gesamt-
Arbeitszufriedenheit sowie der Wert für die Arbeitszufriedenheit vor drei Monaten. Untersucht
wird, ob sich die durchschnittliche Gesamtarbeitszufriedenheit erhöht hat. Zuerst wird als
Voraussetzung überprüft, ob die Differenz aus den beiden Variablen normalverteilt ist. Der
Shapiro-Wilks Test ergibt ein p von 0,0869, es ist nicht signifikant wahrscheinlich dass keine
Normalverteilung vorliegt. Der Lilliefors Test gibt ebenfalls „No evidence against normality“
aus, es steht also anzunehmen dass die erste Bedingung erfüllt ist. Die Stichprobe ist mit
n=60 groß genug für den T-Test. Der Mittelwert der aktuellen Zufriedenheit mit der
Arbeitssituation ist 5,88 (SD=2,16), der Mittelwert für die Arbeitszufriedenheit vor 3 Monaten
5,58 (SD=2,01). Mit einem Ergebnis von t(59)= 1,110 und p=0,2715 und damit größer 0,05
steht fest, dass dieser Unterschied nicht signifikant ist. Dass der erste Mittelwert größer als
der zweite ist, kann also auch Zufall sein. Das hierfür errechnete Effektstärkemaß beträgt
d=0,14, zeigt also erwartungsgemäß einen schwachen Effekt an.
2.4. Einfaktorielle Varianzanalyse ohne Messwiederholung
Mit diesem Verfahren kann ermittelt werden, ob sich die Mittelwerte von mehr als zwei
Gruppen signifikant voneinander unterscheiden. Hier wende ich das Verfahren an, um
Herauszufinden ob Unterschiede in der Arbeitszufriedenheit zwischen den Abteilungen, die
an der Umfrage teilgenommen haben, bestehen. In dem Datensatz sind die Abteilungen mit
Zahlen kodiert: Das Lager mit 1, der Verkauf mit 2, der Einkauf mit 3 und die Verwaltung mit
4. Die einfaktorielle ANOVA gibt hierfür ein p von 0,01 aus, das p ist also kleiner 0,05. Damit
besteht irgendwo zwischen den vier Gruppen ein signifikanter Unterschied in Bezug auf die
Zufriedenheit mit der Arbeit. Die errechneten Mittelwerte M und Standardabweichungen SD
sind:
Lager Verkauf Einkauf Verwaltung
M = 4,71
SD = 1,83
M = 5,76
SD = 2,24
M = 7,36
SD = 1,80
M = 6,64
SD = 1,80
Tabelle 1: Mittelwerte und Standardabweichung der Zufriedenheit in den Abteilungen
Der Bonferronie Test gibt an, wo die signifikanten Unterschiede zwischen den Gruppen
liegen. So unterscheidet sich Gruppe 1 mit p=0,001 signifikant von Gruppe 3 und mit
p=0,011 signifikant von Gruppe 4, Gruppe 2 unterscheidet sich mit p=0,039 signifikant von
Seite 5
Statistik II
Gruppe 3 und alle anderen Gruppen unterscheiden sich nach diesem Test nicht signifikant
voneinander. OpenStat meldet hier für die beiden letztgenannten Gruppenpaare keine
signifikanten Unterschiede, das widerspricht allerdings den berechneten p-Werten und muss
deshalb ein Fehler des Programms sein.
Lager Verkauf Einkauf Verwaltung
Lager - Nicht Signifikant Signifikant Signifikant
Verkauf Nicht Signifikant - Signifikant Nicht Signifikant
Einkauf Signifikant Signifikant - Nicht Signifikant
Verwaltung Signifikant Nicht Signifikant Nicht Signifikant -
Tabelle 2: Unterschiede in der Zufriedenheit zwischen den Abteilungen
2.5. Einfaktorielle Varianzanalyse mit Messwiederholung
Mit der einfaktoriellen Varianzanalyse mit Messwiederholung kann man bei voneinander
abhängigen Variablen ermitteln, ob Unterschiede zwischen deren Mittelwerten bestehen. Bei
diesem Datensatz bietet es sich an, zu untersuchen, ob die Unterschiede in den
verschiedenen abgefragten Zufriedenheiten zufällig oder signifikant sind. Damit das Ergebnis
nicht zu unübersichtlich wird, beschränke ich mich auf den Vergleich von vier Variablen: die
Zufriedenheit mit den Aufgaben im Unternehmen, mit der Arbeitszeit, mit dem Gehalt und mit
den Aufstiegschancen. Als Ergebnis liefert OpenStat hier p=0,000. Das ist kleiner 0,05, also
gibt es irgendwo zwischen diesen Variablen signifikante Unterschiede im Mittelwert. Die
errechneten Mittelwerte sind:
Aufgaben Arbeitszeit Gehalt Aufstiegschancen
M=5,220
SD=2,009
M=7,051
SD=1,305
M=5,576
SD=1,642
M=4,712
SD=1,451
Tabelle 3: Mittelwerte und Standardabweichung der Zufriedenheit mit den Arbeitsaspekten
Die Angestellten sind also bei diesen vier Aspekten am zufriedensten mit den Arbeitszeiten,
am wenigsten zufrieden sind sie mit ihren Aufstiegschancen. Die Unterschiede werden jetzt
zwischen allen Variablen auf Signifikanz geprüft. Die Mittelwert-Abweichung zwischen der
Zufriedenheit mit den Aufgaben und der mit der Arbeitszeit ist mit p=0,000 signifikant, zur
Zufriedenheit mit Gehalt und Aufstiegschancen ist die Abweichung nicht signifikant. Die
Zufriedenheit mit der Arbeitszeit weicht signifikant von der mit Gehalt und Aufstiegschancen
ab, beide p=0,000. Die Zufriedenheit mit dem Gehalt weicht ebenfalls mit p=0,0073 von der
mit den Aufstiegschancen ab. Insgesamt ist es also kein Zufall, dass die Angestellten mit der
Arbeitszeit zufriedener sind als mit den anderen Aspekten. Es kann aber Zufall sein, dass sie
die Zufriedenheit mit ihren Aufgaben höher bewertet haben als die mit ihren
Aufstiegschancen oder niedriger als die mit ihrem Gehalt.
Seite 6
Statistik II
Aufgaben Arbeitszeit Gehalt Aufstiegschancen
Aufgaben - Signifikant Nicht Signifikant Nicht Signifikant
Arbeitszeit Signifikant - Signifikant Signifikant
Gehalt Nicht Signifikant Signifikant - Signifikant
Aufstiegs-
chancenNicht Signifikant Signifikant Signifikant -
Tabelle 4: Unterschiede in der Zufriedenheit mit den Aspekten der Arbeit
2.6. Kruskal-Wallis
Die Kruskal-Wallis Varianzanalyse vergleicht ebenfalls verschiedene Gruppen hinsichtlich
der Unterschiede beim Mittelwert einer Variablen. Das Besondere an der Methode ist, dass
sie auch auf ordinalskalierte Variablen angewendet werden kann. In diesem Datensatz ist die
Gehaltsklasse zum Beispiel ordinalskaliert: Je höher die Gehaltsklasse, desto mehr verdient
der Mitarbeiter, aber die Unterschiede zwischen den Gehaltsklassen sind nicht exakt gleich.
Deswegen wende ich Kruskal-Wallis an, um zu prüfen, ob zwischen den Abteilungen
Unterschiede bei der Verteilung der Gehaltsklassen liegen. Der Test ergibt ein p=0,0000, das
bedeutet es gibt einen signifikanten Unterschied in der Verteilung der Gehaltsklassen auf die
einzelnen Abteilungen.
2.7. Mann-Whitney U Test als Post-hoc-Test
Um jetzt herauszufinden, zwischen welchen Gruppen Unterschiede bestehen, werden Mann-
Whitney U Tests als Post-hoc-Tests durchgeführt. Diese vergleichen immer zwei Gruppen
hinsichtlich einer ordinalskalierten Variablen miteinander. Die Variable „abteilung“ ist in den
Daten von 1-4 eingetragen, dabei steht 1 für das Lager, 2 für den Verkauf, 3 für den Einkauf
und 4 für die Verwaltung. Zwischen Gruppe 1 und Gruppe 2 besteht mit p=0,0001 ein
signifikanter Unterschied in der Gehaltsklasse. Bei Gruppe 1 und Gruppe 3 ist mit p=0,0004
ebenfalls ein signifikanter Unterschied vorhanden. Gruppe 1 und Gruppe 4 unterscheiden
sich mit p=0,0000 auch signifikant voneinander. Gruppe 1 unterscheidet sich also von allen
anderen Gruppen signifikant. Jetzt muss Gruppe 2 mit 3 und 4 verglichen werden. Gruppe 2
unterscheidet sich mit p=0,1655 von Gruppe 3. Dies ist nicht signifikant, da p > 0,05, also ist
der Unterschied hier nicht überzufällig. Von Gruppe 4 unterscheidet sich Gruppe 2 mit
p=0,0000, diese beiden Gruppen unterscheiden sich also wieder signifikant voneinander.
Zuletzt wird Gruppe 3 mit Gruppe 4 verglichen, was ein p=0,0002 ergibt. Also unterscheiden
sich auch diese Gruppen signifikant voneinander. Die einzigen beiden Abteilungen, die sich
bei der Gehaltsklasse nicht signifikant unterscheiden, sind also Verkauf und Einkauf.
Seite 7
Statistik II
Lager Verkauf Einkauf Verwaltung
Lager - Signifikant Signifikant Signifikant
Verkauf Signifikant - Nicht Signifikant Signifikant
Einkauf Signifikant Nicht Signifikant - Signifikant
Verwaltung Signifikant Signifikant Signifikant -
Tabelle 5: Unterschiede in der Verteilung der Gehaltsklassen auf die Abteilungen
2.8. Korrelation nach Pearson
Bis jetzt habe ich vor allem Unterschiede zwischen Gruppen und Variablen untersucht. Als
nächstes werde ich mit einer Korrelations-Analyse versuchen herauszufinden, wie stark und
in welche Richtung zwei Variablen voneinander abhängen, also ob die eine größer wird oder
schrumpft wenn die andere größer wird, wie stark das ausgeprägt ist und ob überhaupt so
ein Zusammenhang vorliegt. Als Beispielsdaten nehme ich die gesamte Arbeitszufriedenheit,
die Zufriedenheit mit dem Gehalt und die gesamte private Lebenszufriedenheit. Als Ergebnis
gibt OpenStat Werte für die Korrelation aus, die zwischen -1 und +1 liegen, sowie ein p dafür
ob der Korrelationswert sich signifikant von 0, also keinem Zusammenhang, unterscheidet.
Die Korrelation zwischen der gesamten Arbeitszufriedenheit und der Zufriedenheit mit dem
Gehalt beträgt 0,254 mit p=0,050. Das ist genau an der Grenze zur Signifikanz, die
Korrelation ist positiv im leichten bis mittelstarken Bereich. Zwischen der Arbeitszufriedenheit
und der privaten Lebenszufriedenheit beträgt der Korrelationswert -0,0228 bei einem
p=0,080. Der Wert ist also nicht signifikant von 0 verschieden, er könnte also Zufall sein.
Wenn er nicht zufällig so liegen würde, wäre das ein leichter bis mittlerer negativer
Zusammenhang zwischen privater Lebenszufriedenheit und Arbeitszufriedenheit. Daran
kann man erkennen, dass diese Daten fiktiv sind, denn so eine Beobachtung wäre in der
Realität sehr ungewöhnlich. Der Zusammenhang zwischen der Zufriedenheit mit dem Geld
und der privaten Zufriedenheit hat einen Wert von 0,162 bei einem p=0,216. Das wäre eine
leichte positive Korrelation, die sich aber nicht signifikant von 0 unterscheidet.
2.9. Multiple Regression
Mit der multiplen Regression kann untersucht werden, ob mit Hilfe von verschiedenen
Variablen eine andere Variable statistisch vorhergesagt werden kann. In dem vorliegenden
Datensatz bietet es sich an, zu untersuchen ob aus den einzelnen Aspekten der
Zufriedenheit am Arbeitsplatz wie Kollegen, Vorgesetzte, Aufgaben, Arbeitszeit, Gehalt und
Aufstiegschancen, die gesamte Zufriedenheit am Arbeitsplatz vorhergesagt werden kann.
Als Grundvorrausetzungen des Testes darf keine Kollinearität zwischen den Prädiktoren
bestehen, aber es muss Linearität und Homoskedastizität bestehen. Die Kollinearität kann
mit dem ausgegebenen Toleranz-Wert der Analyse geprüft werden. Dieser liegt hier immer
Seite 8
Statistik II
deutlich über 0,1, also kann diese Voraussetzung als erfüllt angesehen werden. Der
Breusch-Pagan-Godfrey Test auf Heteroskedastizität liefert ein p=1,0000, es kann also
angenommen werden das Homoskedastizität vorliegt. Die Normalverteilung der Residuen
ergibt bei Prüfung im Shapiro-Wilks Test ein p=0,0000, der Lilliefors Test ergibt „Strong
evidence against normality“. Damit sind die Voraussetzungen für eine multiple Regression
eigentlich nicht erfüllt. Da ich aber dieselben Berechnungen auch mit den Variablen für die
private Zufriedenheit durchgeführt habe und diese die Voraussetzung der Homoskedatizität
nicht erfüllen und damit auch nicht verwendet werden können, werde ich die multiple
Regression weiter mit diesen Daten durchführen. Die Ergebnisse besitzen in diesem Fall
natürlich keine Aussagekraft, aber die Methodik bleibt korrekt. Zuerst kann hier festgehalten
werden, dass mit einem p=0,0000 ein signifikanter Zusammenhang zwischen den
Grundwerten und abhängigen Wert vorhanden ist, es kann also in diesem Fall die gesamte
Arbeitszufriedenheit mit diesen Grundwerten statistisch vorhergesagt werden. Dabei ist der
Einfluss aller Grundvariablen außer der Variable „z_gehalt“ signifikant. Mithilfe des Beta-
Wertes kann der spezifische Einfluss einer Variablen auf die Zielvariable gesehen werden.
Dabei stellt sich heraus, die Zufriedenheit mit den Aufgaben mit Beta=0,600 und die
Zufriedenheit mit den Kollegen mit Beta=0,503 einen außergewöhnlich starken Einfluss
haben. Alle anderen Variablen haben mit Beta-Werten zwischen -0,182 bis 0,165 einen eher
leichten Einfluss auf die Gesamtzufriedenheit.
Variable Beta p
z_kollegen 0,503 0,000
z_vorgesetze 0,147 0,042
z_aufgaben 0,600 0,000
z_arbeitszeit 0,165 0,023
z_gehalt 0,073 0,346
z_aufstieg -0,182 0,039
Tabelle 6: Betawerte und Probability der einzelnen Variablen bei der multiplen Regression
2.10. Chi²-Test für eine Variable
Wenn man herausfinden möchte, ob die Häufigkeiten, mit der verschiedene Antworten auf
eine Frage gewählt wurden, signifikant voneinander abweichen, kann man den Chi²-Test für
eine Variable anwenden. Ich untersuche hier mit dieser Methode, ob die Antworten auf die
Frage nach den Schulabschlüssen gleichmäßig verteilt sind oder nicht. Diese Frage hatte
fünf Antwortmöglichkeiten, erwartungsgemäß hätte bei einer gleichmäßigen Verteilung jede
Antwort zwölf Mal gewählt werden müssen. Tatsächlich wurde wie folgt geantwortet:
Seite 9
Statistik II
Kein Abschluss
(qualifizierter)
Hauptschulabschlus
s
Mittlere Reife (Fach)AbiturStudium
(Uni oder FH)
4 30 18 5 3
Tabelle 7: Häufigkeit der Abschlüsse
Die Verteilung sieht auf den ersten Blick schon sehr ungleichmäßig aus. Dementsprechend
bestätigt der Chi²-Test mit p=0,0000, dass die Antworten signifikant unterschiedlich häufig
gegeben wurden.
2.11. Chi²-Test im 2-Gruppen-Vergleich
Man kann mit dem Chi²-Test aber nicht nur herausfinden, ob innerhalb einer Variablen die
Häufigkeiten von der Erwartung abweichen, sondern auch ob es Abweichungen zwischen
den Antworten von zwei Gruppen vom Erwartungswert gibt. In diesen Daten finde ich es
interessant, zu prüfen, ob es signifikante Unterschiede bei den Gehaltsklassen zwischen
Männern und Frauen in dem Unternehmen gibt, deshalb werde ich das mit Hilfe des Testes
berechnen. Das Unternehmen hat sechs verschiedene Gehaltsklassen. Diese verteilen sich
wie folgt auf die Geschlechter:
I II III IV V VI
M 5 12 9 0 1 1
W 1 13 7 5 6 0
Tabelle 8: Verteilung der Gehaltsklassen nach Geschlecht
Man erkennt schon, dass die Verteilung bei den Männern schwerpunktmäßig eher auf der
linken Seite der Tabelle ist, bei den Frauen etwas weiter rechts. Erwartet hätte man folgende
Verteilung:
I II III IV V VI
M 2,8 11,667 7,467 2,333 3,267 0,467
W 3,2 13,333 8,533 2,667 3,733 0,533
Tabelle 9: Erwartete Verteilung der Gehaltsklassen
Die gemessen Verteilung weicht von der erwarteten ab. Gemäß Chi²-Test ist die Verteilung
der Gehaltsklassen auf die beiden Geschlechter in diesem Unternehmen mit p=0,031
signifikant unterschiedlich von den erwarteten Häufigkeiten.
2.12. Reliabilitätsanalyse
Mithilfe einer Reliabilitätsanalyse kann man ermitteln, wie genau eine Gruppe von Fragen,
die zusammen einen gemeinsamen Themenbereich abdecken, diesen Themenbereich
misst. Im vorliegenden Datensatz können dafür die sechs einzelnen Aspekte der
Arbeitszufriedenheit verwendet werden. Die gesamte Zufriedenheit mit der Arbeit wird nicht
Seite 10
Statistik II
hinzugezogen, diese ist ja sozusagen der durch die Teilnehmer selbstbeantwortete
Oberbegriff für die anderen Fragen. Die Reliabilitätsanalyse gibt in diesem Fall für die sechs
Variablen ein Cronbach-Alpha von 0,535 aus. Normalerweise sollte der Wert größer als 0,7
liegen, also kann man hier davon ausgehen, dass die Messgenauigkeit der sechs Fragen
nicht hoch genug ist, um die Arbeitszufriedenheit adäquat abzubilden.
3. Zusammenfassung der Ergebnisse
Zum Abschluss sollen noch einmal die Ergebnisse aller Untersuchungen kurz
zusammengefasst werden. Das Unternehmen hat mit dieser Umfrage ermitteln können, dass
die aktuelle Zufriedenheit der Mitarbeiter signifikant um immerhin 1,117 unter dem Zielwert
für die Mitarbeiterzufriedenheit liegt. Die Unterschiede in der Zufriedenheit zwischen
Männern und Frauen sind allerdings nicht signifikant, offensichtlich gibt es keine besonderen
Probleme für eines der beiden Geschlechter im Unternehmen. Zwischen den Abteilungen
unterscheidet sich die Zufriedenheit allerdings schon. Gerade die Mitarbeiter aus dem Lager
sind deutlich unzufriedener als die anderen Mitarbeiter, während die Mitarbeiter im Einkauf
deutlich zufriedener sind. Aufgeschlüsselt auf die Teilaspekte stellt sich heraus, dass die
Angestellten vor allem mit den Arbeitszeiten signifikant überdurchschnittlich zufrieden sind,
während die Zufriedenheiten mit Gehalt, Aufgaben und Aufstiegschancen darunter liegen. Im
Vergleich zu vor drei Monaten hat sich aus Sicht der Mitarbeiter keine Verbesserung der
Situation und damit der Zufriedenheit eingestellt.
Weiter wurde herausgefunden, dass die Angestellten der Bereiche Einkauf und Verkauf sich
nicht signifikant bezüglich der Verteilung der Gehaltsklassen unterscheiden, während alle
anderen Abteilungen sich hier deutlich voneinander unterscheiden. Die Verteilung der
Gehaltsklassen auf Männer und Frauen in dem Unternehmen unterscheidet sich ebenfalls
signifikant. Hier könnte weiter untersucht werden, ob dies mit der Verteilung der
Geschlechter auf die Abteilungen, mit höherer Bildung oder von ganz anderen Faktoren
abhängt. Nach der Korrelationsanalyse stellte sich außerdem heraus, das die Zufriedenheit
mit dem Arbeitsleben leicht bis mittelstark positiv mit der Zufriedenheit mit dem Gehalt
korreliert, je zufriedener mit dem Gehalt umso zufriedener sind die Angestellten insgesamt
mit ihrem Arbeitsleben. Eine Korrelation mit der Lebenszufriedenheit wurde bei diesen
beiden Aspekten aber nicht festgestellt. Bei einer weiteren Untersuchung, diesmal mit der
multiplen Regression, wurden als die maßgeblich bestimmenden Faktoren für die
Arbeitszufriedenheit die Kollegen und die Aufgaben ermittelt. Andere Faktoren haben einen
deutlich geringeren Einfluss.
Die Schulabschlüsse der Angestellten sind erwartungsgemäß nicht gleichmäßig verteilt,
manche Abschlüsse sind signifikant häufiger vorzufinden als andere.
Seite 11
Statistik II
Zur Messung selbst kann man sagen, dass die Messgenauigkeit der verschiedenen Aspekte
der Arbeitszufriedenheit nicht besonders hoch war, zukünftige Fragebögen zur
Mitarbeiterzufriedenheit sollten in dieser Hinsicht verbessert werden.
Seite 12
Statistik II
4. Anhang
4.1. Bericht: T-Test für eine Stichprobe
Normalverteilung der Variablen:
NORMALITY TESTS FOR gz_arbeit
Shapiro-Wilkes W = 0.9706Shapiro-Wilkes Prob. = 0.1568
Skew = -0.191Kurtosis = -0.221Lilliefors Test Statistic = 0.095Conclusion: No evidence against normality.
T-Test für eine Stichprobe:
ANALYSIS OF A SAMPLE MEAN
Sample Mean = 5.883Population Mean = 7.000Sample Size = 60Standard error of Mean = 0.278t test statistic = -4.012 with probability 0.000t value required for rejection = 2.001Confidence Interval = ( 5.326, 6.440)
Mittelwert und Standardabweichung der Variablen:
DISTRIBUTION PARAMETER ESTIMATES
========================================================
gz_arbeit (N = 60) Sum = 353.000Mean = 5.883 Variance = 4.647 Std.Dev. = 2.156Std.Error of Mean = 0.278 0.950 Confidence Interval for mean : 5.326 to 6.440Range = 9.000 Minimum = 1.000 Maximum = 10.000Skewness = -0.191 Std. Error of Skew = 0.309Kurtosis = -0.221 Std. Error Kurtosis = 0.608
========================================================Median = 6.000Q1 = 5.000Q3 = 7.000Interquartile range = 2.000========================================================
Seite 13
Statistik II
4.2. Bericht: T-Test für zwei unabhängige Stichproben
Zahl der Gruppenmitglieder:
FREQUENCY ANALYSIS BY BILL MILLER
Frequency Analysis for geschlecht FROM UP TO FREQ. PCNT CUM.FREQ. CUM.PCNT. %ILE RANK
1.00 2.00 28 0.47 28.00 0.00 0.23 2.00 3.00 32 0.53 60.00 1.00 0.73
Normalverteilung der Variablen nach Gruppe getrennt (zuerst männlich, dann weiblich):
NORMALITY TESTS FOR m_gz_arbeit
Shapiro-Wilkes W = 0.9462Shapiro-Wilkes Prob. = 0.1591
Skew = -0.437Kurtosis = -0.102Lilliefors Test Statistic = 0.101Conclusion: No evidence against normality.
NORMALITY TESTS FOR w_gz_arbeit
Shapiro-Wilkes W = 0.9526Shapiro-Wilkes Prob. = 0.1705
Skew = -0.284Kurtosis = -0.729Lilliefors Test Statistic = 0.099Conclusion: No evidence against normality.
T-Test für zwei unabhängige Stichproben:
COMPARISON OF TWO MEANS
Variable Mean Variance Std.Dev. S.E.Mean NGroup 1 5.68 2.30 1.52 0.29 28Group 2 6.06 6.77 2.60 0.46 32Assuming equal variances, t = -0.685 with probability = 0.4960 and 58 degrees of freedomDifference = -0.38 and Standard Error of difference = 0.56Confidence interval = ( -1.51, 0.74)Assuming unequal variances, t = -0.708 with probability = 0.4964 and 50.93 degrees of freedomDifference = -0.38 and Standard Error of difference = 0.54Confidence interval = ( -1.47, 0.70)F test for equal variances = 2.943, Probability = 0.0028
NOTE: t-tests are two-tailed tests.
Seite 14
Statistik II
4.3. Bericht: T-Test für zwei abhängige Stichproben
Normalverteilung der Differenz aus den beiden Variablen:
NORMALITY TESTS FOR dif_gz_arbeit
Shapiro-Wilkes W = 0.9654Shapiro-Wilkes Prob. = 0.0869
Skew = -0.081Kurtosis = -0.703Lilliefors Test Statistic = 0.090Conclusion: No evidence against normality.
T-Test für abhängige Stichproben:
COMPARISON OF TWO MEANS
Variable Mean Variance Std.Dev. S.E.Mean Ngz_arbeit 5.88 4.65 2.16 0.28 60gz_arbeit_vor3monaten 5.58 4.04 2.01 0.26 60Assuming dependent samples, t = 1.110 with probability = 0.2715 and 59 degrees of freedomCorrelation between gz_arbeit and gz_arbeit_vor3monaten = 0.497Difference = 0.30 and Standard Error of difference = 0.27Confidence interval = ( -0.24, 0.84)t for test of equal variances = 0.611 with probability = 0.5438
NOTE: t-tests are two-tailed tests.
Mittelwert und Standardabweichung des Differenzwertes:
DISTRIBUTION PARAMETER ESTIMATES
========================================================
dif_gz_arbeit (N = 60) Sum = 18.000Mean = 0.300 Variance = 4.383 Std.Dev. = 2.094Std.Error of Mean = 0.270 0.950 Confidence Interval for mean : -0.241 to 0.841Range = 8.000 Minimum = -4.000 Maximum = 4.000Skewness = -0.081 Std. Error of Skew = 0.309Kurtosis = -0.703 Std. Error Kurtosis = 0.608
========================================================Median = 0.000Q1 = -1.000Q3 = 2.000Interquartile range = 3.000
Seite 15
Statistik II
4.4. Bericht: Varianzanalyse ohne MesswiederholungONE WAY ANALYSIS OF VARIANCE RESULTS
Dependent variable is: gz_arbeit, Independent variable is: abteilung
---------------------------------------------------------------------SOURCE D.F. SS MS F PROB.>F OMEGA SQR.---------------------------------------------------------------------BETWEEN 3 54.90 18.30 4.67 0.01 0.16WITHIN 56 219.29 3.92TOTAL 59 274.18---------------------------------------------------------------------
MEANS AND VARIABILITY OF THE DEPENDENT VARIABLE FOR LEVELS OF THE INDEPENDENT VARIABLE---------------------------------------------------------------------GROUP MEAN VARIANCE STD.DEV. N--------------------------------------------------------------------- 1 4.71 3.35 1.83 17 2 5.67 5.03 2.24 21 3 7.36 3.25 1.80 11 4 6.64 3.25 1.80 11---------------------------------------------------------------------TOTAL 5.88 4.65 2.16 60---------------------------------------------------------------------
TESTS FOR HOMOGENEITY OF VARIANCE---------------------------------------------------------------------Hartley Fmax test statistic = 1.55 with deg.s freem: 4 and 20.Cochran C statistic = 0.34 with deg.s freem: 4 and 20.Bartlett Chi-square = 1.16 with 3 D.F. Prob. > Chi-Square = 0.763---------------------------------------------------------------------
FISHER'S (PROTECTED) LEAST SIGNIFICANT DIFFERENCE TEST---------------------------------------------------------------------GROUP MEAN GROUP MEAN DIFFERENCE FISHER LSD SIGNIFICANT?--------------------------------------------------------------------- 1 4.706 2 5.667 0.961 1.293 NO 1 4.706 3 7.364 2.658 1.534 YES 1 4.706 4 6.636 1.930 1.534 YES 2 5.667 3 7.364 1.697 1.475 YES 2 5.667 4 6.636 0.970 1.475 NO 3 7.364 4 6.636 0.727 1.690 NONOTE! Familywise error rate may be greater than alpha---------------------------------------------------------------------
--------------------------------------------------------------- Bonferroni Test for (Differences Between Means Overall alpha selected = 0.05---------------------------------------------------------------Comparisons made at alpha / no. comparisons = 0.008
Groups Difference Statistic Prob > Value Significant? 1 - 2 -0.961 1.423 0.163 NO 1 - 3 -2.658 3.775 0.001 YES 1 - 4 -1.930 2.742 0.011 NO 2 - 3 -1.697 2.164 0.039 NO 2 - 4 -0.970 1.236 0.226 NO 3 - 4 0.727 0.945 0.356 NO
Seite 16
Statistik II
4.5. Bericht: Varianzanalyse mit MesswiederholungTreatments by Subjects (AxS) ANOVA Results.
-----------------------------------------------------------SOURCE DF SS MS F Prob. > F-----------------------------------------------------------SUBJECTS 58 255.636 4.408WITHIN SUBJECTS 177 534.750 3.021 TREATMENTS 3 178.894 59.631 29.157 0.000 RESIDUAL 174 355.856 2.045-----------------------------------------------------------TOTAL 235 790.386 3.363-----------------------------------------------------------
TREATMENT (COLUMN) MEANS AND STANDARD DEVIATIONSVARIABLE MEAN STD.DEV.z_aufgaben 5.220 2.009z_arbeitszeit 7.051 1.305z_gehalt 5.576 1.642z_aufstieg 4.712 1.451
--------------------------------------------------------------- Tukey HSD Test for (Differences Between Means alpha selected = 0.05Groups Difference Statistic Probability Significant?--------------------------------------------------------------- 1 - 2 -1.831 q = 9.832 -0.0000 YES 1 - 3 -0.356 q = 1.912 0.5320 NO 1 - 4 0.508 q = 2.731 0.2206 NO--------------------------------------------------------------- 2 - 3 1.475 q = 7.920 -0.0000 YES 2 - 4 2.339 q = 12.563 -0.0000 YES --------------------------------------------------------------- 3 - 4 0.864 q = 4.643 0.0073 YES ---------------------------------------------------------------
--------------------------------------------------------------- Tukey-Kramer Test for (Differences Between Means alpha selected = 0.05Groups Difference Statistic Probability Significant?--------------------------------------------------------------- 1 - 2 -1.831 q = 9.832 -0.0000 YES 1 - 3 -0.356 q = 1.912 0.5320 NO 1 - 4 0.508 q = 2.731 0.2206 NO 2 - 3 1.475 q = 7.920 -0.0000 YES 2 - 4 2.339 q = 12.563 -0.0000 YES 3 - 4 0.864 q = 4.643 0.0073 YES ---------------------------------------------------------------
--------------------------------------------------------------- Tukey B Test for (Contrasts on Ordered Means alpha selected = 0.05---------------------------------------------------------------
Groups Difference Statistic d.f. Prob.>value Significant? 4 - 1 -0.508 2.731 2, 174 0.138 NO 4 - 3 -0.864 4.643 3, 174 0.006 YES 4 - 2 -2.339 12.563 4, 174 -0.000 YES 1 - 3 -0.356 1.912 2, 174 0.356 NO
Seite 17
Statistik II
1 - 2 -1.831 9.832 3, 174 -0.000 YES 3 - 2 -1.475 7.920 2, 174 0.000 YES
---------------------------------------------------------------- Scheffe contrasts among pairs of means. alpha selected = 0.05Group vs Group Difference Scheffe Critical Significant? Statistic Value---------------------------------------------------------------- 1 2 -1.83 6.95 2.817 YES 1 3 -0.36 1.35 2.817 NO 1 4 0.51 1.93 2.817 NO---------------------------------------------------------------- 2 3 1.47 5.60 2.817 YES 2 4 2.34 8.88 2.817 YES---------------------------------------------------------------- 3 4 0.86 3.28 2.817 YES----------------------------------------------------------------
---------------------------------------------------------------------- Neuman-Keuls Test for (Contrasts on Ordered Means alpha selected = 0.05
Group Mean 4 4.712 1 5.220 3 5.576 2 7.051
Groups Difference Statistic d.f. Probability Significant?---------------------------------------------------------------------- 4 - 1 -0.508 q = 2.731 2 174 0.0559 NO 4 - 3 -0.864 q = 4.643 3 174 0.0039 YES 4 - 2 -2.339 q = 12.563 4 174 -0.0000 YES 1 - 3 -0.356 q = 1.912 2 174 0.1790 NO 1 - 2 -1.831 q = 9.832 3 174 0.0000 YES 3 - 2 -1.475 q = 7.920 2 174 0.0001 YES----------------------------------------------------------------------
4.6. Bericht: Kruskal-WallisKruskal - Wallis One-Way Analysis of VarianceSee pages 184-194 in S. Siegel's Nonparametric Statistics for the Behavioral Sciences
Score Rank Group
1.00 3.50 1 1.00 3.50 1 1.00 3.50 1 1.00 3.50 1 1.00 3.50 1 1.00 3.50 1 2.00 19.00 1 2.00 19.00 1 2.00 19.00 1 2.00 19.00 1 2.00 19.00 1 2.00 19.00 1 2.00 19.00 1 2.00 19.00 2
Seite 18
Statistik II
2.00 19.00 2 2.00 19.00 2 2.00 19.00 2 2.00 19.00 1 2.00 19.00 1 2.00 19.00 1 2.00 19.00 1 2.00 19.00 2 2.00 19.00 2 2.00 19.00 2 2.00 19.00 2 2.00 19.00 2 2.00 19.00 2 2.00 19.00 3 2.00 19.00 3 2.00 19.00 3 2.00 19.00 3 3.00 39.50 3 3.00 39.50 2 3.00 39.50 3 3.00 39.50 2 3.00 39.50 2 3.00 39.50 3 3.00 39.50 3 3.00 39.50 2 3.00 39.50 2 3.00 39.50 2 3.00 39.50 2 3.00 39.50 2 3.00 39.50 2 3.00 39.50 2 3.00 39.50 3 3.00 39.50 2 4.00 50.00 3 4.00 50.00 3 4.00 50.00 4 4.00 50.00 4 4.00 50.00 4 5.00 56.00 4 5.00 56.00 4 5.00 56.00 4 5.00 56.00 4 5.00 56.00 4 5.00 56.00 4 5.00 56.00 4 6.00 60.00 4
Sum of Ranks in each GroupGroup Sum No. in Group 1 230.00 17 2 624.50 21 3 373.50 11 4 602.00 11
No. of tied rank groups = 5Statisic H uncorrected for ties = 37.6920Correction for Ties = 0.9058Statistic H corrected for ties = 41.6127Corrected H is approx. chi-square with 3 D.F. and probability = 0.0000
Seite 19
Statistik II
4.7. Bericht: Mann-Whitney U Test
Vergleich Gruppe 1 – Gruppe 2:
Mann-Whitney U TestSee pages 116-127 in S. Siegel's Nonparametric Statistics for the Behavioral Sciences
Score Rank Group
1.00 3.50 1 1.00 3.50 1 1.00 3.50 1 1.00 3.50 1 1.00 3.50 1 1.00 3.50 1 2.00 17.00 1 2.00 17.00 1 2.00 17.00 1 2.00 17.00 1 2.00 17.00 1 2.00 17.00 1 2.00 17.00 1 2.00 17.00 1 2.00 17.00 1 2.00 17.00 1 2.00 17.00 1 2.00 17.00 2 2.00 17.00 2 2.00 17.00 2 2.00 17.00 2 2.00 17.00 2 2.00 17.00 2 2.00 17.00 2 2.00 17.00 2 2.00 17.00 2 2.00 17.00 2 3.00 33.00 2 3.00 33.00 2 3.00 33.00 2 3.00 33.00 2 3.00 33.00 2 3.00 33.00 2 3.00 33.00 2 3.00 33.00 2 3.00 33.00 2 3.00 33.00 2 3.00 33.00 2
Sum of Ranks in each GroupGroup Sum No. in Group 1 208.00 17 2 533.00 21
No. of tied rank groups = 3Statistic U = 302.0000z Statistic (corrected for ties) = 3.6404, Prob. > z = 0.0001
Seite 20
Statistik II
Vergleich Gruppe 1 – Gruppe 3:
Mann-Whitney U TestSee pages 116-127 in S. Siegel's Nonparametric Statistics for the Behavioral Sciences
Score Rank Group
1.00 3.50 1 1.00 3.50 1 1.00 3.50 1 1.00 3.50 1 1.00 3.50 1 1.00 3.50 1 2.00 14.00 1 2.00 14.00 1 2.00 14.00 1 2.00 14.00 1 2.00 14.00 1 2.00 14.00 1 2.00 14.00 1 2.00 14.00 1 2.00 14.00 1 2.00 14.00 1 2.00 14.00 1 2.00 14.00 2 2.00 14.00 2 2.00 14.00 2 2.00 14.00 2 3.00 24.00 2 3.00 24.00 2 3.00 24.00 2 3.00 24.00 2 3.00 24.00 2 4.00 27.50 2 4.00 27.50 2
Sum of Ranks in each GroupGroup Sum No. in Group 1 175.00 17 2 231.00 11
No. of tied rank groups = 4Statistic U = 165.0000z Statistic (corrected for ties) = 3.3869, Prob. > z = 0.0004z test is approximate. Use tables of exact probabilities in Siegel.(Table J or K, pages 271-277)
Vergleich Gruppe 1 – Gruppe 4:
Mann-Whitney U TestSee pages 116-127 in S. Siegel's Nonparametric Statistics for the Behavioral Sciences
Score Rank Group
1.00 3.50 1 1.00 3.50 1 1.00 3.50 1 1.00 3.50 1 1.00 3.50 1
Seite 21
Statistik II
1.00 3.50 1 2.00 12.00 1 2.00 12.00 1 2.00 12.00 1 2.00 12.00 1 2.00 12.00 1 2.00 12.00 1 2.00 12.00 1 2.00 12.00 1 2.00 12.00 1 2.00 12.00 1 2.00 12.00 1 4.00 19.00 2 4.00 19.00 2 4.00 19.00 2 5.00 24.00 2 5.00 24.00 2 5.00 24.00 2 5.00 24.00 2 5.00 24.00 2 5.00 24.00 2 5.00 24.00 2 6.00 28.00 2
Sum of Ranks in each GroupGroup Sum No. in Group 1 153.00 17 2 253.00 11
No. of tied rank groups = 4Statistic U = 187.0000z Statistic (corrected for ties) = 4.4218, Prob. > z = 0.0000z test is approximate. Use tables of exact probabilities in Siegel.(Table J or K, pages 271-277)
Vergleich Gruppe 2 – Gruppe 3:
Mann-Whitney U TestSee pages 116-127 in S. Siegel's Nonparametric Statistics for the Behavioral Sciences
Score Rank Group
2.00 7.50 1 2.00 7.50 1 2.00 7.50 1 2.00 7.50 1 2.00 7.50 1 2.00 7.50 1 2.00 7.50 1 2.00 7.50 1 2.00 7.50 1 2.00 7.50 1 2.00 7.50 2 2.00 7.50 2 2.00 7.50 2 2.00 7.50 2 3.00 22.50 1 3.00 22.50 1 3.00 22.50 1 3.00 22.50 1
Seite 22
Statistik II
3.00 22.50 1 3.00 22.50 1 3.00 22.50 1 3.00 22.50 2 3.00 22.50 2 3.00 22.50 2 3.00 22.50 2 3.00 22.50 1 3.00 22.50 1 3.00 22.50 1 3.00 22.50 2 3.00 22.50 1 4.00 31.50 2 4.00 31.50 2
Sum of Ranks in each GroupGroup Sum No. in Group 1 322.50 21 2 205.50 11
No. of tied rank groups = 3Statistic U = 139.5000z Statistic (corrected for ties) = 0.9721, Prob. > z = 0.1655z test is approximate. Use tables of exact probabilities in Siegel.(Table J or K, pages 271-277)
Vergleich Gruppe 2 – Gruppe 4:
Mann-Whitney U TestSee pages 116-127 in S. Siegel's Nonparametric Statistics for the Behavioral Sciences
Score Rank Group
2.00 5.50 1 2.00 5.50 1 2.00 5.50 1 2.00 5.50 1 2.00 5.50 1 2.00 5.50 1 2.00 5.50 1 2.00 5.50 1 2.00 5.50 1 2.00 5.50 1 3.00 16.00 1 3.00 16.00 1 3.00 16.00 1 3.00 16.00 1 3.00 16.00 1 3.00 16.00 1 3.00 16.00 1 3.00 16.00 1 3.00 16.00 1 3.00 16.00 1 3.00 16.00 1 4.00 23.00 2 4.00 23.00 2 4.00 23.00 2 5.00 28.00 2 5.00 28.00 2 5.00 28.00 2
Seite 23
Statistik II
5.00 28.00 2 5.00 28.00 2 5.00 28.00 2 5.00 28.00 2 6.00 32.00 2
Sum of Ranks in each GroupGroup Sum No. in Group 1 231.00 21 2 297.00 11
No. of tied rank groups = 4Statistic U = 231.0000z Statistic (corrected for ties) = 4.6024, Prob. > z = -0.0000z test is approximate. Use tables of exact probabilities in Siegel.(Table J or K, pages 271-277)
Vergleich Gruppe 3 – Gruppe 4:
Kruskal - Wallis One-Way Analysis of VarianceSee pages 184-194 in S. Siegel's Nonparametric Statistics for the Behavioral Sciences
Score Rank Group
2.00 2.50 1 2.00 2.50 1 2.00 2.50 1 2.00 2.50 1 3.00 7.00 1 3.00 7.00 1 3.00 7.00 1 3.00 7.00 1 3.00 7.00 1 4.00 12.00 1 4.00 12.00 1 4.00 12.00 2 4.00 12.00 2 4.00 12.00 2 5.00 18.00 2 5.00 18.00 2 5.00 18.00 2 5.00 18.00 2 5.00 18.00 2 5.00 18.00 2 5.00 18.00 2 6.00 22.00 2
Sum of Ranks in each GroupGroup Sum No. in Group 1 69.00 11 2 184.00 11
No. of tied rank groups = 4Statisic H uncorrected for ties = 14.2562Correction for Ties = 0.9401Statistic H corrected for ties = 15.1638Corrected H is approx. chi-square with 1 D.F. and probability = 0.0002
Seite 24
Statistik II
4.8. Bericht: Korrelation nach Pearson
CORRELATION MATRIX
Correlations gz_arbeit z_gehalt gz_privat gz_arbeit 1.000 0.254 -0.228 z_gehalt 0.254 1.000 0.162 gz_privat -0.228 0.162 1.000 No. of valid cases = 60
t-test Values for prob. |corr.| > 0 test
Variables gz_arbeit z_gehalt gz_privat
gz_arbeit 0.000 1.997 1.780 z_gehalt 1.997 0.000 1.251 gz_privat 1.780 1.251 0.000
Probability of greater t
Variables gz_arbeit z_gehalt gz_privat
gz_arbeit 0.000 0.050 0.080 z_gehalt 0.050 0.000 0.216 gz_privat 0.080 0.216 0.000
4.9. Bericht: Multiple Regression
Arbeitsplatz-Zufriedenheit:
Dependent variable: gz_arbeit
Variable Beta B Std.Err. t Prob.>t VIF TOLz_kollegen 0.503 0.529 0.075 7.047 0.000 1.178 0.849z_vorgesetze 0.147 0.191 0.091 2.088 0.042 1.148 0.871z_aufgaben 0.600 0.644 0.088 7.292 0.000 1.565 0.639z_arbeitszeit 0.165 0.272 0.116 2.340 0.023 1.144 0.874z_gehalt 0.073 0.096 0.101 0.950 0.346 1.358 0.736z_aufstieg -0.182 -0.271 0.128 -2.123 0.039 1.707 0.586Intercept 0.000 -2.770 1.058 -2.618 0.012
SOURCE DF SS MS F Prob.>FRegression 6 209.035 34.839 29.899 0.0000Residual 52 60.592 1.165Total 58 269.627
R2 = 0.7753, F = 29.90, D.F. = 6 52, Prob>F = 0.0000Adjusted R2 = 0.7493
Standard Error of Estimate = 1.08F = 29.899 with probability = 0.000Block 1 met entry requirements
Seite 25
Statistik II
=====================================================Breusch-Pagan-Godfrey Test of Heteroscedasticity=====================================================
Auxiliary Regression
Dependent variable: BPGResid.
Variable Beta B Std.Err. t Prob.>t VIF TOLz_kollegen 0.234 0.000 0.000 1.741 0.088 1.174 0.852z_vorgesetze 0.037 0.000 0.000 0.278 0.782 1.149 0.870z_aufgaben 0.054 0.000 0.000 0.351 0.727 1.546 0.647z_arbeitszeit 0.368 0.000 0.000 2.766 0.008 1.147 0.872 z_gehalt 0.133 0.000 0.000 0.923 0.360 1.342 0.745z_aufstieg -0.342 -0.000 0.000 -2.119 0.039 1.693 0.591 Intercept 0.000 -0.000 0.000 -1.551 0.127
SOURCE DF SS MS F Prob.>FRegression 6 0.000 0.000 2.311 0.0475Residual 51 0.000 0.000Total 57 0.000
R2 = 0.2137, F = 2.31, D.F. = 6 51, Prob>F = 0.0475Adjusted R2 = 0.1212
Standard Error of Estimate = 0.00
Breusch-Pagan-Godfrey Test of HeteroscedasticityChi-Square = 0.000 with probability greater value = 1.000
Normalverteilung der Residuen:
NORMALITY TESTS FOR RawResid.
Shapiro-Wilkes W = 0.1105Shapiro-Wilkes Prob. = 0.0000
Skew = -7.746Kurtosis = 60.000Lilliefors Test Statistic = 0.517Conclusion: Strong evidence against normality.
Private Zufriedenheit:
Dependent variable: gz_privat
Variable Beta B Std.Err. t Prob.>t VIF TOL z_familie 0.594 0.557 0.067 8.331 0.000 1.075 0.930z_freizeit 0.439 0.494 0.081 6.080 0.000 1.103 0.906 z_wohnort 0.168 0.185 0.077 2.415 0.019 1.027 0.973 Intercept 0.000 -1.261 0.766 -1.646 0.105
SOURCE DF SS MS F Prob.>FRegression 3 161.648 53.883 51.949 0.0000Residual 56 58.085 1.037Total 59 219.733
Seite 26
Statistik II
R2 = 0.7357, F = 51.95, D.F. = 3 56, Prob>F = 0.0000Adjusted R2 = 0.7215
Standard Error of Estimate = 1.02F = 51.949 with probability = 0.000Block 1 met entry requirements
=====================================================Breusch-Pagan-Godfrey Test of Heteroscedasticity=====================================================
Auxiliary Regression
Dependent variable: BPGResid.
Variable Beta B Std.Err. t Prob.>t VIF TOL z_familie -0.298 -0.292 0.129 -2.255 0.028 1.075 0.930z_freizeit 0.087 0.102 0.157 0.649 0.519 1.103 0.906 z_wohnort 0.082 0.095 0.149 0.636 0.527 1.027 0.973 Intercept 0.000 1.391 1.484 0.937 0.353
SOURCE DF SS MS F Prob.>FRegression 3 21.864 7.288 1.872 0.1449Residual 56 218.069 3.894Total 59 239.933
R2 = 0.0911, F = 1.87, D.F. = 3 56, Prob>F = 0.1449Adjusted R2 = 0.0424
Standard Error of Estimate = 1.97
Breusch-Pagan-Godfrey Test of HeteroscedasticityChi-Square = 10.932 with probability greater value = 0.012
Normalverteilung der Residuen:
NORMALITY TESTS FOR RawResid.
Shapiro-Wilkes W = 0.9665Shapiro-Wilkes Prob. = 0.0983
Skew = -0.278Kurtosis = 2.283Lilliefors Test Statistic = 0.082Conclusion: No evidence against normality.
Seite 27
Statistik II
4.10. Bericht: Chi²-Test bei einer StichprobeChi-square Analysis Results for constant and abschlussNo. of Cases = 60
OBSERVED FREQUENCIES
Frequencies COL. 1 COL. 2 COL. 3 COL. 4 COL. 5 Total
Row 1 4 30 18 5 3 60 Total 4 30 18 5 3 60
EXPECTED FREQUENCIES
Expected Values COL. 1 COL. 2 COL. 3 COL. 4 COL. 5 Row 1 12.000 12.000 12.000 12.000 12.000
Chi-square = 46.167 with D.F. = 4. Prob. > value = 0.000
Liklihood Ratio = 43.713 with prob. > value = 0.0000
4.11. Bericht: Chi²-test mit zwei GruppenChi-square Analysis Results for geschlecht and gehaltklasseNo. of Cases = 60
OBSERVED FREQUENCIES
Frequencies COL. 1 COL. 2 COL. 3 COL. 4 COL. 5 COL. 6
Row 1 5 12 9 0 1 1 Row 2 1 13 7 5 6 0 Total 6 25 16 5 7 1 Frequencies Total
Row 1 28 Row 2 32 Total 60
EXPECTED FREQUENCIES
Expected Values COL. 1 COL. 2 COL. 3 COL. 4 COL. 5 COL. 6 Row 1 2.800 11.667 7.467 2.333 3.267 0.467 Row 2 3.200 13.333 8.533 2.667 3.733 0.533
Chi-square = 12.316 with D.F. = 5. Prob. > value = 0.031
Liklihood Ratio = 15.215 with prob. > value = 0.0095
phi correlation = 0.4531
Pearson Correlation r = 0.2770
Mantel-Haenszel Test of Linear Association = 4.528 with probability > value = 0.0333
Seite 28
Statistik II
The coefficient of contingency = 0.413
Cramer's V = 0.453
4.12. Bericht: ReliabilitätsanalyseTreatments by Subjects (AxS) ANOVA Results.
-----------------------------------------------------------SOURCE DF SS MS F Prob. > F-----------------------------------------------------------SUBJECTS 58 305.356 5.265WITHIN SUBJECTS 295 960.667 3.256 TREATMENTS 5 250.565 50.113 20.466 0.000 RESIDUAL 290 710.102 2.449-----------------------------------------------------------TOTAL 353 1266.023 3.586-----------------------------------------------------------
TREATMENT (COLUMN) MEANS AND STANDARD DEVIATIONSVARIABLE MEAN STD.DEV.z_kollegen 6.068 2.050z_vorgesetze 4.593 1.662z_aufgaben 5.220 2.009z_arbeitszeit 7.051 1.305z_gehalt 5.576 1.642z_aufstieg 4.712 1.451
RELIABILITY ESTIMATES
TYPE OF ESTIMATE VALUEUnadjusted total reliability 0.381Unadjusted item reliabiity 0.093Adjusted total (Cronbach) 0.535Adjusted item reliability 0.161
Seite 29
Statistik II
5. Eidesstattliche Versicherung
Hiermit versichere ich, dass ich die vorliegende Studienarbeit selbstständig und ohne
unerlaubte Hilfe angefertigt und andere als die in der Studienarbeit angegebenen Hilfsmittel
nicht benutzt habe. Alle Stellen, die wörtlich oder sinngemäß aus anderen Schriften
entnommen sind, habe ich als solche kenntlich gemacht.
Seite 30