Suchen und Finden
Service
Statistik und Forschungsmethoden - Lehrbuch. Mit Online-Material
Michael Eid, Mario Gollwitzer, Manfred Schmitt
Verlag Beltz, 2017
ISBN 9783621286220 , 1088 Seiten
5. Auflage
Format PDF, OL
Kopierschutz Wasserzeichen
Inhaltsübersicht
6
Inhalt
8
Danksagung und Vorwort zur 4. Auflage
22
Wegweiser
24
I Forschungsmethoden
34
1 Was sind Methoden, und wozu sind sie gut?
36
1.1 Erkenntnismethoden und?Interventionsmethoden
36
1.2 Methoden der Datengewinnung und der Datenauswertung
37
1.3 Warum sind Methodenkenntnisse wichtig?
38
2 Struktur und Ablauf wissenschaftlicher Untersuchungen
40
2.1 Hypothesen, Ebenen wissenschaftlicher Aussagen und die Überbrückungsproblematik
40
2.1.1 Prüfbare und nicht-prüfbare Aussagen
40
2.1.2 Wissenschaftliche Hypothesen
41
2.1.3 Überbrückungsprobleme
42
2.2 Schritte im Forschungsprozess
43
2.2.1 Entstehung eines Erkenntnisinteresses
43
2.2.2 Sammlung verfügbaren Wissens
44
2.2.3 Entwicklung einer Fragestellung oder Hypothese
44
2.2.4 Planung einer Untersuchung
45
2.2.5 Durchführung der Untersuchung
47
2.2.6 Auswertung der Daten
48
2.2.7 Schlussfolgerungen aus der Untersuchung
49
2.2.8 Mitteilung der Untersuchung
49
3 Methoden der Datengewinnung
52
3.1 Kriterien für die Wahl einer Erhebungsmethode
52
3.2 Ordnungsmöglichkeiten
53
3.3 Darstellung einzelner Erhebungsmethoden
56
3.3.1 Verhaltensbeobachtung
56
3.3.2 Gespräch (?Interview, Exploration, Anamnese?)
58
3.3.3 Schriftliche Befragung und Fragebogen
60
3.3.4 Textanalytische Methoden
63
3.3.5 Tests
64
3.3.6 Computerbasierte Verfahren
66
3.3.7 Apparative Verfahren zur Erfassung psychomotorischer Leistungen
68
3.3.8 Psychobiologische Verfahren
69
3.3.9 Nicht-reaktiv gewonnene Daten
71
3.3.10 Projektive Verfahren
72
3.3.11 Reaktionszeitgestützte Verfahren
73
3.4 Multimethodale Erfassung menschlichen Erlebens und Verhaltens
75
4 Forschungsansätze und -strategien in der Psychologie
82
4.1 Methodologische Grundbegriffe
83
4.1.1 Variablen und Konstanten
83
4.1.2 Merkmale und Merkmalsträger
83
4.1.3 Arten von Variablen in?der?Psychologie
83
4.2 Voraussetzungen für kausale Schlussfolgerungen
85
4.3 Experimenteller Ansatz
86
4.3.1 Systematische Störvariablen
87
4.3.2 Unsystematische Störvariablen
88
4.3.3 Kontrolle von Störvariablen
88
4.3.4 Externe Validität
91
4.4 Quasi-experimenteller Ansatz
93
4.5 Korrelativer Ansatz
95
4.6 Sekundär- und Metaanalysen
97
II Messtheoretische und deskriptivstatistische Grundlagen
102
5 Messtheoretische Grundlagen
104
5.1 Skalenniveau
104
5.1.1 Skalenniveaus im Überblick
105
5.1.2 Skalenniveau und andere Variablenarten
107
5.2 Messen in der Psychologie: Grundideen am Beispiel der Nominalskala
107
5.2.1 Relation
107
5.2.2 Relativ (?relationales System?)
109
5.2.3 Homomorphismus
110
5.2.4 Grundlegende Fragen der Messtheorie
110
5.3 Definition der Nominalskala
111
5.3.1 Das empirische Relativ der?Nominalskala
111
5.3.2 Das numerische Relativ der?Nominalskala
112
5.3.3 Nominalskala und Nominalskalenmodell
113
5.3.4 Zulässige Transformationen und?Eindeutigkeit
113
5.3.5 Bedeutsamkeit
114
5.3.6 Anwendung von Nominalskalen
114
5.3.7 Das Wesentliche zum Nominalskalenmodell
115
5.4 Definition der Ordinalskala
115
5.4.1 Das empirische Relativ der?Ordinalskala
115
5.4.2 Das numerische Relativ der?Ordinalskala
116
5.4.3 Ordinalskala und Ordinalskalenmodell
117
5.4.4 Zulässige Transformationen und Eindeutigkeit
119
5.4.5 Bedeutsamkeit
120
5.4.6 Anwendung von Ordinalskalen
120
5.4.7 Das Wesentliche zum Ordinalskalenmodell
121
5.5 Kardinalskalierte oder metrische Variablen
121
5.5.1 Definition der Intervallskala
122
5.5.2 Definition der Verhältnisskala
123
5.5.3 Definition der Absolutskala
124
5.6 Inklusionsregel zulässiger Transformationen
124
6 Univariate Deskriptivstatistik
128
6.1 Grundbegriffe der Deskriptivstatistik
128
6.1.1 Datenmatrix
128
6.1.2 Häufigkeitsverteilung
129
6.2 Deskriptivstatistik für nominalskalierte Variablen
134
6.2.1 Zentrale Tendenz und Modalwert
134
6.2.2 Dispersion und relativer Informationsgehalt
134
6.3 Deskriptivstatistik für ordinalskalierte Variablen
136
6.3.1 Häufigkeitsverteilungen
137
6.3.2 Zentrale Tendenz und Median
140
6.3.3 Dispersion und Interquartilsbereich
1
6.4 Deskriptivstatistik für metrische Variablen
144
6.4.1 Häufigkeitsverteilungen
144
6.4.2 Kennwerte der zentralen Tendenz
154
6.4.3 Quantile
160
6.4.4 Streuungskennwerte
161
6.4.5 Schiefe und Kurtosis
165
6.5 Standardwerte und z-Transformation
166
6.6 Bivariate und multivariate Deskriptivstatistik
167
III Wahrscheinlichkeitstheorie und inferenzstatistische Grundlagen
170
7 Wahrscheinlichkeitstheorie und?Wahrscheinlichkeitsverteilungen
172
7.1 Wahrscheinlichkeiten für Zufallsereignisse
173
7.1.1 Zufallsvorgang, Zufallsexperiment und Ergebnisraum
173
7.1.2 Zufallsereignis
1
7.1.3 Laplace-Wahrscheinlichkeit und?Laplace-Experiment
175
7.1.4 Kombinatorik
176
7.1.5 Definition der Wahrscheinlichkeit nach Kolmogorov
178
7.1.6 Bedingte Wahrscheinlichkeiten
184
7.1.7 Das Bayes-Theorem
186
7.2 Wahrscheinlichkeitsverteilungen für diskrete Zufallsvariablen
192
7.2.1 Gleichverteilung
197
7.2.2 Bernoulli-Verteilung und?Indikatorvariablen
197
7.2.3 Binomialverteilung
198
7.2.4 Multinomialverteilung
202
7.2.5 Hypergeometrische Verteilung
202
7.2.6 Geometrische Verteilung
203
7.2.7 Poisson-Verteilung
203
7.3 Wahrscheinlichkeitsverteilungen für stetige Zufallsvariablen
203
7.3.1 Gleichverteilung
207
7.3.2 Exponentialverteilung
208
7.3.3 Normalverteilung
209
7.3.4 Weitere stetige Wahrscheinlichkeitsverteilungen
212
8 Grundlagen der Inferenzstatistik
218
8.1 Der Nullhypothesentest nach Fisher
219
8.2 Binäres Entscheidungskonzept von Neyman und Pearson
222
8.3 Effektgrößen
229
8.4 Statistisches Testen an Stichproben
231
8.5 Parameterschätzung
243
8.5.1 Gütekriterien der Parameterschätzung
243
8.5.2 Konfidenzintervall
249
8.5.3 Schätzung des Standardfehlers bei unbekannter Populationsvarianz
254
8.6 Konfidenzintervalle für Effektgrößen
257
8.6.1 Konfidenzintervall für Effektgrößen bei bekannter Populationsstandardabweichung
257
8.6.2 Konfidenzintervall für Effektgrößen bei unbekannter Populationsstandardabweichung
260
8.7 Testplanung und Poweranalyse
263
8.7.1 Post-hoc-Poweranalyse
264
8.7.2 A-priori-Poweranalyse
265
8.8 Das Überprüfen statistischer Hypothesen in der Psychologie ...
266
8.8.1 Schritte beim statistischen Testen
267
8.8.2 Statistisches Testen in der wissenschaftlichen Praxis
267
8.8.3 Empfehlungen der »Task Force on Statistical Inference«
268
8.9 Replikation von Forschungsergebnissen
270
8.9.1 Notwendigkeit und Vernachlässigung von Replikationen
270
8.9.2 Präferenz für signifikante Befunde
270
8.9.3 Subtile Strategien der Fälschung von Forschungsergebnissen
272
8.9.4 Neue Entwicklungen
273
9 Die Welt inferenzstatistischer Verfahren: Überblick, Systematik, Auswahlstrategien
280
9.1 Warum braucht man verschiedene statistische Tests?
280
9.2 Unterscheidungsmerkmale statistischer Tests
281
9.2.1 Exakte vs. asymptotische Tests
281
9.2.2 Parametrische vs. nonparametrische Verfahren
282
9.2.3 Robuste Verfahren
282
9.2.4 Resampling-Verfahren
283
9.3 Population, Stichprobe und Repräsentativität: Konsequenzen für inferenzstatistische Verfahren
286
9.3.1 Population (?Grundgesamtheit?)
286
9.3.2 Stichprobe
289
9.3.3 Repräsentativität und fehlende Werte
291
9.4 Auswahl eines Verfahrens
293
9.4.1 Univariate, bivariate, multivariate Verfahren
293
9.4.2 Gerichtete vs. ungerichtete Zusammenhänge
294
9.4.3 Manifeste vs. latente Variablen
295
9.4.4 Skalenniveau und Variablenart
295
9.4.5 Auswahl eines statistischen Verfahrens
296
9.5 Weiterer Aufbau des Buches
297
IV Methoden zum Vergleich von Gruppen
300
10 Einstichproben- und Anpassungstests
302
10.1 Vergleich eines Mittelwerts mit einem fixen Wert
302
10.2 Vergleich eines Medians mit einem fixen Wert
306
10.3 Vergleich einer Stichprobenvarianz mit einer Populationsvarianz
311
10.4 Vergleich einer relativen Häufigkeit mit einer theoretischen Wahrscheinlichkeit (?Binomialtest)
316
10.5 Vergleich der Häufigkeitsverteilung eines kategorialen Merkmals ...
318
10.6 Überprüfung von Verteilungsannahmen bei stetigen Merkmalen
323
10.6.1 Kolmogorov-Smirnov-Test (?KS-Anpassungstest?)
323
10.6.2 ?2-Anpassungstest
327
11 Unterschiede zwischen zwei unabhängigen Stichproben
332
11.1 Vergleich zweier Stichprobenmittelwerte (?Zweistichprobentests?)
332
11.1.1 Bekannte Populationsvarianzen: Der Zweistichproben-Gauß-Test
332
11.1.2 Unbekannte Populationsvarianzen: Der t-Test für unabhängige Stichproben
335
11.2 Vergleich zweier Stichprobenmediane (?Wilcoxon-Rangsummen-Test bzw. U-Test?)
344
11.3 Vergleich zweier Stichprobenvarianzen (?Varianzhomogenitätstests?)
350
11.3.1 F-Test auf Varianzhomogenität
350
11.3.2 Levene-Test
353
11.4 Vergleich von Häufigkeitsverteilungen zwischen zwei unabhängigen Stichproben
355
11.4.1 Vierfelder-?2-Test
355
11.4.2 Fisher-Yates-Test
1
11.5 Der Zweistichproben-?2-Test
1
12 Unterschiede zwischen zwei abhängigen Stichproben
368
12.1 Vergleich der zentralen Tendenz zweier abhängiger Stichproben
370
12.1.1 Parametrischer Test: Der t-Test für abhängige Stichproben
370
12.1.2 Nonparametrische Tests
378
12.2 Vergleich von Häufigkeitsverteilungen zwischen zwei abhängigen Stichproben
1
12.2.1 Dichotome Merkmale: Der McNemar-Test
1
12.2.2 Mehrkategoriale Merkmale: Der Bowker-Test
387
13 Unterschiede zwischen mehreren unabhängigen Stichproben: Varianzanalyse und verwandte Verfahren
392
13.1 Einfaktorielle Varianzanalyse
393
13.1.1 Grundidee der Varianzanalyse
393
13.1.2 Messwertzerlegung
394
13.1.3 Zerlegung der Bedingungsmittelwerte und Effekte einzelner Bedingungen
395
13.1.4 Quadratsummenzerlegung
397
13.1.5 Populationsmodell der einfaktoriellen Varianzanalyse
400
13.1.6 Schätzung der Populationsparameter
403
13.1.7 Überprüfung der Nullhypothese: Der F-Test der einfaktoriellen Varianzanalyse
405
13.1.8 Verletzungen der Voraussetzungen
409
13.1.9 Effektgrößenmaße und Konfidenzintervall
410
13.1.10 Poweranalyse
414
13.1.11 Varianzanalyse mit zufälligen Effekten
416
13.1.12 Paarvergleiche und Post-hoc-Tests
416
13.1.13 Kontrastanalyse
421
13.2 Zweifaktorielle Varianzanalyse
431
13.2.1 Grundidee der zweifaktoriellen Varianzanalyse
433
13.2.2 Messwertzerlegung
433
13.2.3 Quadratsummenzerlegung
439
13.2.4 Populationsmodell der zweifaktoriellen Varianzanalyse
442
13.2.5 Schätzung der Populationsparameter
444
13.2.6 Überprüfung der Nullhypothesen
444
13.2.7 Effektgrößenmaße und Konfidenzintervalle
448
13.2.8 Post-hoc-Tests und geplante Kontraste
451
13.2.9 Ungleiche Stichprobengrößen: Nonorthogonale Varianzanalyse
454
13.2.10 Mehrfaktorielle Varianzanalyse
454
13.3 Test auf Gruppenunterschiede für Rangdaten (?Kruskal-Wallis-Test?)
455
13.4 Verfahren für kategoriale abhängige Variablen
457
14 Unterschiede zwischen mehreren abhängigen Stichproben: Varianzanalyse mit Messwiederholung ...
462
14.1 Einfaktorielle Varianzanalyse mit Messwiederholung
463
14.1.1 Messwertzerlegung
465
14.1.2 Quadratsummenzerlegung
465
14.1.3 Effektgrößenmaße
468
14.1.4 Populationsmodell der einfaktoriellen Varianzanalyse mit Messwiederholung
470
14.1.5 Schätzung der Populationsparameter
472
14.1.6 Inferenzstatistik der einfaktoriellen Varianzanalyse mit Messwiederholung
473
14.1.7 Sphärizität und Compound Symmetry
475
14.1.8 Effektgrößenmaße und Konfidenzintervalle
478
14.1.9 A-priori-Poweranalyse: Planung des optimalen Stichprobenumfangs
480
14.1.10 Kontrastanalyse
482
14.2 Zweifaktorielle Varianzanalyse mit Messwiederholung
485
14.2.1 Zweifaktorielle Varianzanalyse mit Messwiederholung auf beiden Faktoren
485
14.2.2 Zweifaktorielle Varianzanalyse mit Messwiederholung auf einem Faktor
493
14.3 Nichtparametrischer Test für Medianunterschiede zwischen abhängigen Stichproben ...
501
14.4 Verfahren für kategoriale abhängige Variablen
503
15 Unterschiede zwischen mehreren Stichproben auf mehreren abhängigen Variablen ...
506
15.1 Multivariate vs. univariate Varianzanalysen
506
15.2 Zielsetzungen und Grundideen der multivariaten Varianzanalyse
1
15.3 Einfaktorielle multivariate Varianzanalyse
508
15.3.1 Messwertzerlegung
508
15.3.2 Quadratsummenzerlegung
509
15.3.3 Kreuzproduktsummenzerlegung
509
15.3.4 Zusammenfassende Darstellung der Quadrat- und Kreuzproduktsummen
510
15.3.5 Diskriminanzfunktion
511
15.3.6 Effektgröße
515
15.3.7 Populationsmodell der multivariaten Varianzanalyse
1
15.3.8 Überprüfung der Nullhypothese
517
15.3.9 Effektgrößen und Konfidenzintervalle
1
15.3.10 Poweranalyse
523
15.3.11 Post-hoc-Tests und Kontrastanalyse
524
15.4 Spezialfälle und Erweiterungen
525
V Zusammenhangs- und Regressionsanalyse
528
16 Zusammenhänge zwischen zwei Variablen: Korrelations- und Assoziationsmaße
530
16.1 Erläuterung des Korrelationsprinzips an drei Beispielen
530
16.2 Tabellarische und grafische Darstellung von bivariaten Messwertreihen
532
16.3 Korrelationskoeffizienten
536
16.3.1 Zwei metrische Variablen
536
16.3.2 Zwei ordinalskalierte Variablen
544
16.3.3 Zwei dichotome nominalskalierte Variablen
554
16.3.4 Zwei polytome nominalskalierte Variablen
562
16.3.5 Eine dichotome Variable und eine metrische Variable
566
16.3.6 Eine dichotome nominalskalierte Variable und eine ordinalskalierte Variable
567
16.3.7 Weitere Skalenkombinationen
569
16.3.8 Wahl eines Korrelationskoeffizienten
570
16.4 Inferenzstatistik zu bivariaten Zusammenhangsmaßen
570
16.4.1 Zwei metrische Variablen
571
16.4.2 Assoziationsmaße für ordinale Variablen
580
16.4.3 Assoziationsmaße für dichotome Variablen
583
16.4.4 Assoziationsmaße für nominalskalierte Variablen
585
16.4.5 Andere Assoziationsmaße
586
17 Abhängigkeiten zwischen zwei Variablen: Einfache lineare Regression
590
17.1 Kleinste-Quadrate-Kriterium
592
17.2 Regressionsgleichung
596
17.3 Regressionsresiduum
597
17.4 Quadratsummenzerlegung und Varianzzerlegung
598
17.5 Determinationskoeffizient und Indeterminationskoeffizient
599
17.6 Negatives Regressionsgewicht und Regressionsrichtung
600
17.6.1 Negatives Regressionsgewicht
600
17.6.2 Regressionsrichtung
601
17.7 Regression standardisierter Werte
602
17.8 Bedeutung der linearen Regression
603
17.9 Inferenzstatistik der einfachen linearen Regression
603
17.9.1 Populationsmodell der einfachen linearen Regression
604
17.9.2 Inferenzstatistische Schätzung und Testung
605
17.9.3 Schätzung der Residualvarianz und des Standardschätzfehlers
607
17.9.4 Schätzung und Überprüfung des Regressionsgewichts ?1
607
17.9.5 Schätzung und Überprüfung des Achsenabschnitts ?0
608
17.9.6 Schätzung der bedingten Erwartungswerte
609
17.9.7 Vorhersage individueller Kriteriumswerte
610
17.9.8 Schätzung und Überprüfung des Determinationskoeffizienten
610
18 Partialkorrelation und Semipartialkorrelation
616
18.1 Aufgaben und Ziele der Partial- und Semipartialkorrelation
616
18.2 Partialkorrelation
621
18.3 Semipartialkorrelation
625
18.4 Inferenzstatistische Absicherung der Partial- und der Semipartialkorrelation
627
19 Multiple Regressionsanalyse
630
19.1 Zielsetzungen der multiplen Regressionsanalyse
630
19.1.1 Berücksichtigung von Redundanzen und Kontrolle von Störvariablen
630
19.1.2 Prognose und Erklärung
630
19.1.3 Analyse komplexer Zusammenhänge
631
19.2 Notation
632
19.3 Lineare Regression für zwei metrische unabhängige Variablen
633
19.3.1 Multiple Regression als kompensatorisches Modell
633
19.3.2 Grafische Darstellung
634
19.3.3 Bestimmung der Regressionskoeffizienten
634
19.4 Bedeutung der Regressionsgewichte
637
19.4.1 Multiple Regressionsgewichte als Regressionsgewichte bedingter einfacher Regressionen
637
19.4.2 Multiple Regressionsgewichte als Regressionsgewichte von Regressionsresiduen
638
19.4.3 Unstandardisierte vs. standardisierte Regressionsgewichte
640
19.5 Lineare Regression für mehrere metrische unabhängige Variablen
641
19.6 Multiple Korrelation und Determinationskoeffizient
642
19.7 Inferenzstatistik zur multiplen Regressionsanalyse
645
19.7.1 Populationsmodell der multiplen Regression
645
19.7.2 Inferenzstatistische Schätzung und Testung
646
19.7.3 Schätzung der Residualvarianz und des Standardschätzfehlers
647
19.7.4 Schätzung, Signifikanztest und Konfidenzintervalle für die multiple Korrelation ...
647
19.7.5 Schätzung, Signifikanztest und Konfidenzintervalle ...
1
19.7.6 Schätzung, Signifikanztest und Konfidenzintervalle für einen Satz unabhängiger Variablen
653
19.7.7 Verfahren zur Auswahl unabhängiger Variablen
656
19.7.8 Schätzung und Überprüfung des Achsenabschnitts ?0
1
19.7.9 Schätzung der bedingten Erwartungswerte und individuell prognostizierter Werte
1
19.8 Suppressorvariable
660
19.9 Moderierte Regressionsanalyse
664
19.9.1 Moderierte Regressionsanalyse: Zwei unabhängige Variablen
665
19.9.2 Moderierte Regression mit zentrierten Variablen
667
19.9.3 Inferenzstatistische Absicherung eines Moderatoreffekts
671
19.10 Analyse nicht-linearer Zusammenhänge
674
19.11 Analyse kategorialer unabhängiger Variablen
677
19.11.1 Dummy-Codierung
677
19.11.2 Effektcodierung
680
19.11.3 Vergleich von Dummy- und Effektcodierung
683
19.11.4 Inferenzstatistische Absicherung der Regressionsparameter
684
19.11.5 Analyse mehrerer kategorialer unabhängiger Variablen
685
19.11.6 Ordinale unabhängige Variablen
691
19.12 Gemeinsame Analyse kategorialer und metrischer unabhängiger Variablen
691
19.12.1 Additive Verknüpfung kategorialer und kontinuierlicher Variablen: Kovarianzanalyse
691
19.12.2 Kovarianzanalyse in quasi-experimentellen Designs
695
19.12.3 Interaktionen zwischen kategorialen und kontinuierlichen Variablen
703
19.13 Regressionsdiagnostik
705
19.13.1 Korrekte Spezifikation des Modells
705
19.13.2 Messfehlerfreiheit der unabhängigen Variablen
707
19.13.3 Ausreißer und einflussreiche Datenpunkte
708
19.13.4 Multikollinearität
713
19.13.5 Homoskedastizität
715
19.13.6 Unabhängigkeit der Residuen
716
19.13.7 Normalverteilung der Residuen
717
19.13.8 Multivariate Normalverteilung der Variablen
721
19.13.9 Verletzung der Annahmen und Konsequenzen
721
20 Hierarchische lineare Modelle (?Mehrebenenanalyse?)
728
20.1 Hierarchische Datenstrukturen
728
20.1.1 Risiko falscher Schlüsse bei der Interpretation von Zusammenhängen
729
20.1.2 Verletzung der Unabhängigkeitsannahme
731
20.1.3 Mehrebenenmodelle: Ein Überblick
733
20.2 Modelle der Mehrebenenanalyse
733
20.2.1 Das Intercept-Only-Modell
733
20.2.2 Das Random-Intercept-Modell
1
20.2.3 Das Random-Coefficients-Modell
736
20.2.4 Modelle mit festen Level-1- und Level-2-Effekten
739
20.2.5 Analyse von Kontexteffekten
740
20.2.6 Modelle mit Cross-Level-Interaktionseffekt
745
20.3 Parameterschätzung, inferenzstatistische Absicherung und Varianzaufklärung
746
20.3.1 Schätzung der Modellparameter
746
20.3.2 Inferenzstatistische Absicherung der Modellparameter
747
20.3.3 Passung des Modells auf die Daten
749
20.3.4 Wie viel Varianz klärt ein Prädiktor auf?
1
20.3.5 Poweranalyse und Stichprobenumfangsplanung
1
20.4 Modelle der Veränderungsmessung
757
20.4.1 Trendmodelle
758
20.4.2 Kontrastanalysen
763
20.5 Weitere Modelle
767
21 Log-lineare Modelle und Logit-Modelle
770
21.1 Zielsetzungen der log-linearen Analyse
770
21.1.1 Das Simpson-Paradox
770
21.1.2 Ein einführendes Beispiel: Sonnenschutzverhalten
772
21.2 Log-lineare Modelle für eine Analyse einer 2?×?2-Kontingenztabelle
773
21.2.1 Das multiplikative Modell
773
21.2.2 Das additive Modell
775
21.2.3 Das Modell mit einer Referenzkategorie
778
21.2.4 Vergleich der verschiedenen Formulierungen des Modells
779
21.2.5 Allgemeiner Fall einer I?×?J-Kontingenztabelle
779
21.3 Inferenzstatistische Absicherung
780
21.3.1 Populationsmodelle für eine 2?×?2-Kontingenztabelle
780
21.3.2 Parameterschätzung und Hypothesentestung
781
21.3.3 Standardfehler und Konfidenzintervalle
782
21.3.4 Signifikanztests
783
21.4 Überprüfung von Modellen
784
21.4.1 Statistische Überprüfung von Modellannahmen
784
21.4.2 Unabhängigkeitsmodell und saturiertes Modell
786
21.4.3 Hierarchische und nicht-hierarchische log-lineare Modelle
787
21.4.4 Modellvergleiche
787
21.4.5 Spezifikation von Modellen beim produkt-multinomialen Erhebungsschema
788
21.4.6 Effektgröße und Konfidenzintervall
789
21.4.7 Bestimmung der optimalen Stichprobengröße
789
21.5 Log-lineare Modelle für eine 2?×?2?×?2-Kontingenztabelle
791
21.5.1 Multiplikatives Modell
791
21.5.2 Additives Modell
792
21.5.3 Parameterschätzung und Modelltestung
792
21.5.4 Das log-lineare Modell für eine I?×?J?×?K-Kontingenztabelle
795
21.6 Logit-Modell
795
22 Logistische Regressionsanalyse
800
22.1 Grundidee der logistischen Regressionsanalyse für dichotome abhängige Variablen
800
22.1.1 Einfache logistische Regressionsanalyse
801
22.1.2 Multiple logistische Regression
810
22.2 Parameterschätzung
812
22.3 Hypothesenprüfung
813
22.3.1 Hypothesentests für einen einzelnen Parameter
813
22.3.2 Hypothesentests für ein Set von unabhängigen Variablen
816
22.3.3 Hypothesentests in Bezug auf alle unabhängigen Variablen
817
22.3.4 Zerlegung der Likelihood-Ratio-Teststatistik
817
22.4 Effektgrößen
818
22.5 Klassifikation
820
22.6 Bestimmung der optimalen Stichprobengröße
821
22.7 Voraussetzungen der Maximum-Likelihood-Schätzung und Hypothesentestung
823
22.8 Regressionsdiagnostik
824
22.8.1 Korrekte Spezifikation des Modells und Modellanpassungsgüte
824
22.8.2 Messfehlerbehaftetheit der unabhängigen Variablen und Multikollinearität
827
22.8.3 Identifikation von Ausreißern und einflussreichen Datenpunkten
827
22.8.4 Nullzellenproblem
828
22.9 Logistisches Regressionsmodell für mehrkategoriale nominalskalierte abhängige Variablen
829
22.10 Logistisches Regressionsmodell für ordinalskalierte abhängige Variablen
833
VI Modelle mit latenten Variablen
842
23 Messfehlertheorie und Klassische Testtheorie
844
23.1 Theoretische Konzepte der Klassischen Testtheorie
844
23.1.1 Theoretische Konzeption des Messfehlers
845
23.1.2 Theoretische Konzeption des wahren Wertes
847
23.1.3 Eigenschaften der Messfehler- und der True-Score-Variablen
849
23.1.4 Theoretische Konzeption der Reliabilität
850
23.2 Messmodelle
852
23.2.1 Modell essenziell ?-äquivalenter Variablen
852
23.2.2 Modell essenziell ?-paralleler Variablen
860
23.2.3 Modell ?-äquivalenter Variablen
861
23.2.4 Modell ?-paralleler Variablen
861
23.2.5 Zwischenfazit
862
23.2.6 Modell ?-kongenerischer Variablen
864
23.3 Vergleich der verschiedenen Testmodelle
870
23.4 Funktion von Testmodellen für die Psychodiagnostik
871
23.4.1 Itemselektion und Testkonstruktion
871
23.4.2 Messung latenter Merkmalsausprägungen
873
24 Mehrdimensionale Messmodelle und konfirmatorische Faktorenanalyse
878
24.1 Ein einführendes Beispiel: Die Konvergenz von Selbst- und Fremdbericht
878
24.1.1 Ein zweidimensionales Modell
880
24.1.2 Ein alternatives Modell: Modell mit Methodenfaktor
881
24.1.3 Verschiedene Darstellungsformen von Multidimensionalität
883
24.2 True-Score-Modelle vs. Faktormodelle
885
24.2.1 Uniqueness und Kommunalität
885
24.2.2 Faktoren und Ladungen
886
24.2.3 Konfirmatorische vs. exploratorische Faktorenanalyse
886
24.3 Grundidee der Faktorenanalyse
886
24.4 Allgemeine Fragen bei der konfirmatorischen Faktorenanalyse
888
24.4.1 Modellspezifikation: Warum Theorie so wichtig ist!
888
24.4.2 Identifizierbarkeit: Können alle Parameter eindeutig bestimmt werden?
890
24.4.3 Grundideen der Parameterschätzung und der Modelltestung
896
24.5 Schätzmethoden
899
24.5.1 Grundprinzip der Schätzmethoden
899
24.5.2 Maximum-Likelihood-Verfahren
900
24.5.3 Asymptotisch verteilungsfreie Verfahren
901
24.5.4 Andere Schätzmethoden
901
24.5.5 Wahl einer Schätzmethode
903
24.6 Beurteilung der Modellanpassungsgüte
904
24.6.1 Detailmaße der Anpassungsgüte: Residuen
904
24.6.2 Gesamtanpassung des Modells
1
24.6.3 Modellvergleiche
1
24.6.4 Modellmodifikationen
910
24.6.5 Erwartungswertstrukturen
910
24.7 Bestimmung der optimalen Stichprobengröße
911
24.7.1 A-priori-Poweranalyse zur Bestimmung der Stichprobengröße
911
24.7.2 Monte-Carlo-Simulationsstudie zur Bestimmung der Stichprobengröße
911
24.8 Faktorenanalyse für ordinale Variablen
912
24.8.1 Annahme einer itemspezifischen kontinuierlichen Variablen
913
24.8.2 Faktorenanalytisches Modell
914
24.9 Weitere Messmodelle mit latenten Variablen
916
25 Exploratorische Faktorenanalyse und Hauptkomponentenanalyse
920
25.1 Grundprinzipien der exploratorischen Faktorenanalyse
921
25.1.1 Grundgleichung der Faktorenanalyse
921
25.1.2 Schritte bei der exploratorischen Faktorenanalyse
921
25.2 Die Maximum-Likelihood-Faktorenanalyse
922
25.2.1 Annahmen der Maximum-Likelihood-Faktorenanalyse
922
25.2.2 Identifizierbarkeit und Anfangslösung
923
25.2.3 Bestimmung der Anzahl der Faktoren und Modellgültigkeit
924
25.2.4 Rotation
928
25.2.5 Interpretation der Ergebnisse
932
25.2.6 Bestimmung von Faktorwerten
933
25.3 Hauptachsenanalyse und Hauptkomponentenanalyse
933
25.3.1 Grundidee der Hauptkomponentenanalyse
934
25.3.2 Kriterien zur Bestimmung der relevanten Hauptkomponenten
938
25.3.3 Rotation und Ergebnisdarstellung
940
25.3.4 Die Hauptachsenanalyse
942
25.4 Vergleich der Ansätze und praktische Empfehlungen
943
25.5 Faktorenanalyse für dichotome und ordinale Variablen
946
25.6 Einzelfall-Faktorenanalyse und dynamische Faktorenanalyse
947
26 Pfadanalyse und lineare Strukturgleichungsmodelle
952
26.1 Pfadanalyse
953
26.1.1 Das pfadanalytische Modell als ein System von Regressionsmodellen
954
26.1.2 Parameterschätzung und Modellüberprüfung
956
26.1.3 Hypothesenüberprüfung
961
26.2 Lineare Strukturgleichungsmodelle
966
26.2.1 Messmodell und Strukturmodell
967
26.2.2 Parameterschätzung und Hypothesenüberprüfung
969
26.2.3 Latente autoregressive Modelle
969
26.2.4 Latent-State-Trait-Modell
973
26.2.5 Spezielle lineare Strukturgleichungsmodelle
976
26.2.6 Sind Strukturgleichungsmodelle Kausalmodelle?
976
Anhang
980
Glossar
982
Literaturverzeichnis
1000
Hinweise zu den Online-Materialien
1018
Anhang A: Tabellen
1020
1 Binominalverteilung
1020
2 Standardnormalverteilung
1032
3 Zentrale t-Verteilung
1033
4 Wilcoxon-Vorzeichen-Rangtest
1
5 Zentrale ?2-Verteilung
1035
6 Kritische Werte für den Kolmogorov-Smirnov-Test und den Lilliefors-Test
1036
7 Wilcoxon-Rangsummen-Test
1039
8 Zentrale F-Verteilung
1042
9 Kritische Werte für die Differenz nK???nD
1049
Anhang B: Matrixalgebra
1052
1 Matrix
1052
2 Vektor
1052
3 Grundlegende Rechenoperationen mit Matrizen
1053
4 Spezielle Matrizen
1056
5 Demonstration der Berechnung einiger statistischer Kennwerte mittels Matrixalgebra
1059
Sachwortverzeichnis
1064
Leere Seite
1