dummies
 
 

Suchen und Finden

Titel

Autor/Verlag

Inhaltsverzeichnis

Nur ebooks mit Firmenlizenz anzeigen:

 

Statistik und Forschungsmethoden - Lehrbuch. Mit Online-Material

von: Michael Eid, Mario Gollwitzer, Manfred Schmitt

Beltz, 2017

ISBN: 9783621286220 , 1088 Seiten

Format: PDF, OL

Kopierschutz: Wasserzeichen

Windows PC,Mac OSX,Windows PC,Mac OSX Apple iPad, Android Tablet PC's Online-Lesen für: Windows PC,Mac OSX,Linux

Preis: 54,99 EUR

Exemplaranzahl:  Preisstaffel

Für Firmen: Nutzung über Internet und Intranet (ab 2 Exemplaren) freigegeben

Derzeit können über den Shop maximal 500 Exemplare bestellt werden. Benötigen Sie mehr Exemplare, nehmen Sie bitte Kontakt mit uns auf.


Mehr zum Inhalt

Statistik und Forschungsmethoden - Lehrbuch. Mit Online-Material


 

Inhaltsübersicht

6

Inhalt

8

Danksagung und Vorwort zur 4. Auflage

22

Wegweiser

24

I Forschungsmethoden

34

1 Was sind Methoden, und wozu sind sie gut?

36

1.1 Erkenntnismethoden und?Interventionsmethoden

36

1.2 Methoden der Datengewinnung und der Datenauswertung

37

1.3 Warum sind Methodenkenntnisse wichtig?

38

2 Struktur und Ablauf wissenschaftlicher Untersuchungen

40

2.1 Hypothesen, Ebenen wissenschaftlicher Aussagen und die Überbrückungsproblematik

40

2.1.1 Prüfbare und nicht-prüfbare Aussagen

40

2.1.2 Wissenschaftliche Hypothesen

41

2.1.3 Überbrückungsprobleme

42

2.2 Schritte im Forschungsprozess

43

2.2.1 Entstehung eines Erkenntnisinteresses

43

2.2.2 Sammlung verfügbaren Wissens

44

2.2.3 Entwicklung einer Fragestellung oder Hypothese

44

2.2.4 Planung einer Untersuchung

45

2.2.5 Durchführung der Untersuchung

47

2.2.6 Auswertung der Daten

48

2.2.7 Schlussfolgerungen aus der Untersuchung

49

2.2.8 Mitteilung der Untersuchung

49

3 Methoden der Datengewinnung

52

3.1 Kriterien für die Wahl einer Erhebungsmethode

52

3.2 Ordnungsmöglichkeiten

53

3.3 Darstellung einzelner Erhebungsmethoden

56

3.3.1 Verhaltensbeobachtung

56

3.3.2 Gespräch (?Interview, Exploration, Anamnese?)

58

3.3.3 Schriftliche Befragung und Fragebogen

60

3.3.4 Textanalytische Methoden

63

3.3.5 Tests

64

3.3.6 Computerbasierte Verfahren

66

3.3.7 Apparative Verfahren zur Erfassung psychomotorischer Leistungen

68

3.3.8 Psychobiologische Verfahren

69

3.3.9 Nicht-reaktiv gewonnene Daten

71

3.3.10 Projektive Verfahren

72

3.3.11 Reaktionszeitgestützte Verfahren

73

3.4 Multimethodale Erfassung menschlichen Erlebens und Verhaltens

75

4 Forschungsansätze und -strategien in der Psychologie

82

4.1 Methodologische Grundbegriffe

83

4.1.1 Variablen und Konstanten

83

4.1.2 Merkmale und Merkmalsträger

83

4.1.3 Arten von Variablen in?der?Psychologie

83

4.2 Voraussetzungen für kausale Schlussfolgerungen

85

4.3 Experimenteller Ansatz

86

4.3.1 Systematische Störvariablen

87

4.3.2 Unsystematische Störvariablen

88

4.3.3 Kontrolle von Störvariablen

88

4.3.4 Externe Validität

91

4.4 Quasi-experimenteller Ansatz

93

4.5 Korrelativer Ansatz

95

4.6 Sekundär- und Metaanalysen

97

II Messtheoretische und deskriptivstatistische Grundlagen

102

5 Messtheoretische Grundlagen

104

5.1 Skalenniveau

104

5.1.1 Skalenniveaus im Überblick

105

5.1.2 Skalenniveau und andere Variablenarten

107

5.2 Messen in der Psychologie: Grundideen am Beispiel der Nominalskala

107

5.2.1 Relation

107

5.2.2 Relativ (?relationales System?)

109

5.2.3 Homomorphismus

110

5.2.4 Grundlegende Fragen der Messtheorie

110

5.3 Definition der Nominalskala

111

5.3.1 Das empirische Relativ der?Nominalskala

111

5.3.2 Das numerische Relativ der?Nominalskala

112

5.3.3 Nominalskala und Nominalskalenmodell

113

5.3.4 Zulässige Transformationen und?Eindeutigkeit

113

5.3.5 Bedeutsamkeit

114

5.3.6 Anwendung von Nominalskalen

114

5.3.7 Das Wesentliche zum Nominalskalenmodell

115

5.4 Definition der Ordinalskala

115

5.4.1 Das empirische Relativ der?Ordinalskala

115

5.4.2 Das numerische Relativ der?Ordinalskala

116

5.4.3 Ordinalskala und Ordinalskalenmodell

117

5.4.4 Zulässige Transformationen und Eindeutigkeit

119

5.4.5 Bedeutsamkeit

120

5.4.6 Anwendung von Ordinalskalen

120

5.4.7 Das Wesentliche zum Ordinalskalenmodell

121

5.5 Kardinalskalierte oder metrische Variablen

121

5.5.1 Definition der Intervallskala

122

5.5.2 Definition der Verhältnisskala

123

5.5.3 Definition der Absolutskala

124

5.6 Inklusionsregel zulässiger Transformationen

124

6 Univariate Deskriptivstatistik

128

6.1 Grundbegriffe der Deskriptivstatistik

128

6.1.1 Datenmatrix

128

6.1.2 Häufigkeitsverteilung

129

6.2 Deskriptivstatistik für nominalskalierte Variablen

134

6.2.1 Zentrale Tendenz und Modalwert

134

6.2.2 Dispersion und relativer Informationsgehalt

134

6.3 Deskriptivstatistik für ordinalskalierte Variablen

136

6.3.1 Häufigkeitsverteilungen

137

6.3.2 Zentrale Tendenz und Median

140

6.3.3 Dispersion und Interquartilsbereich

0

6.4 Deskriptivstatistik für metrische Variablen

144

6.4.1 Häufigkeitsverteilungen

144

6.4.2 Kennwerte der zentralen Tendenz

154

6.4.3 Quantile

160

6.4.4 Streuungskennwerte

161

6.4.5 Schiefe und Kurtosis

165

6.5 Standardwerte und z-Transformation

166

6.6 Bivariate und multivariate Deskriptivstatistik

167

III Wahrscheinlichkeitstheorie und inferenzstatistische Grundlagen

170

7 Wahrscheinlichkeitstheorie und?Wahrscheinlichkeitsverteilungen

172

7.1 Wahrscheinlichkeiten für Zufallsereignisse

173

7.1.1 Zufallsvorgang, Zufallsexperiment und Ergebnisraum

173

7.1.2 Zufallsereignis

0

7.1.3 Laplace-Wahrscheinlichkeit und?Laplace-Experiment

175

7.1.4 Kombinatorik

176

7.1.5 Definition der Wahrscheinlichkeit nach Kolmogorov

178

7.1.6 Bedingte Wahrscheinlichkeiten

184

7.1.7 Das Bayes-Theorem

186

7.2 Wahrscheinlichkeitsverteilungen für diskrete Zufallsvariablen

192

7.2.1 Gleichverteilung

197

7.2.2 Bernoulli-Verteilung und?Indikatorvariablen

197

7.2.3 Binomialverteilung

198

7.2.4 Multinomialverteilung

202

7.2.5 Hypergeometrische Verteilung

202

7.2.6 Geometrische Verteilung

203

7.2.7 Poisson-Verteilung

203

7.3 Wahrscheinlichkeitsverteilungen für stetige Zufallsvariablen

203

7.3.1 Gleichverteilung

207

7.3.2 Exponentialverteilung

208

7.3.3 Normalverteilung

209

7.3.4 Weitere stetige Wahrscheinlichkeitsverteilungen

212

8 Grundlagen der Inferenzstatistik

218

8.1 Der Nullhypothesentest nach Fisher

219

8.2 Binäres Entscheidungskonzept von Neyman und Pearson

222

8.3 Effektgrößen

229

8.4 Statistisches Testen an Stichproben

231

8.5 Parameterschätzung

243

8.5.1 Gütekriterien der Parameterschätzung

243

8.5.2 Konfidenzintervall

249

8.5.3 Schätzung des Standardfehlers bei unbekannter Populationsvarianz

254

8.6 Konfidenzintervalle für Effektgrößen

257

8.6.1 Konfidenzintervall für Effektgrößen bei bekannter Populationsstandardabweichung

257

8.6.2 Konfidenzintervall für Effektgrößen bei unbekannter Populationsstandardabweichung

260

8.7 Testplanung und Poweranalyse

263

8.7.1 Post-hoc-Poweranalyse

264

8.7.2 A-priori-Poweranalyse

265

8.8 Das Überprüfen statistischer Hypothesen in der Psychologie ...

266

8.8.1 Schritte beim statistischen Testen

267

8.8.2 Statistisches Testen in der wissenschaftlichen Praxis

267

8.8.3 Empfehlungen der »Task Force on Statistical Inference«

268

8.9 Replikation von Forschungsergebnissen

270

8.9.1 Notwendigkeit und Vernachlässigung von Replikationen

270

8.9.2 Präferenz für signifikante Befunde

270

8.9.3 Subtile Strategien der Fälschung von Forschungsergebnissen

272

8.9.4 Neue Entwicklungen

273

9 Die Welt inferenzstatistischer Verfahren: Überblick, Systematik, Auswahlstrategien

280

9.1 Warum braucht man verschiedene statistische Tests?

280

9.2 Unterscheidungsmerkmale statistischer Tests

281

9.2.1 Exakte vs. asymptotische Tests

281

9.2.2 Parametrische vs. nonparametrische Verfahren

282

9.2.3 Robuste Verfahren

282

9.2.4 Resampling-Verfahren

283

9.3 Population, Stichprobe und Repräsentativität: Konsequenzen für inferenzstatistische Verfahren

286

9.3.1 Population (?Grundgesamtheit?)

286

9.3.2 Stichprobe

289

9.3.3 Repräsentativität und fehlende Werte

291

9.4 Auswahl eines Verfahrens

293

9.4.1 Univariate, bivariate, multivariate Verfahren

293

9.4.2 Gerichtete vs. ungerichtete Zusammenhänge

294

9.4.3 Manifeste vs. latente Variablen

295

9.4.4 Skalenniveau und Variablenart

295

9.4.5 Auswahl eines statistischen Verfahrens

296

9.5 Weiterer Aufbau des Buches

297

IV Methoden zum Vergleich von Gruppen

300

10 Einstichproben- und Anpassungstests

302

10.1 Vergleich eines Mittelwerts mit einem fixen Wert

302

10.2 Vergleich eines Medians mit einem fixen Wert

306

10.3 Vergleich einer Stichprobenvarianz mit einer Populationsvarianz

311

10.4 Vergleich einer relativen Häufigkeit mit einer theoretischen Wahrscheinlichkeit (?Binomialtest)

316

10.5 Vergleich der Häufigkeitsverteilung eines kategorialen Merkmals ...

318

10.6 Überprüfung von Verteilungsannahmen bei stetigen Merkmalen

323

10.6.1 Kolmogorov-Smirnov-Test (?KS-Anpassungstest?)

323

10.6.2 ?2-Anpassungstest

327

11 Unterschiede zwischen zwei unabhängigen Stichproben

332

11.1 Vergleich zweier Stichprobenmittelwerte (?Zweistichprobentests?)

332

11.1.1 Bekannte Populationsvarianzen: Der Zweistichproben-Gauß-Test

332

11.1.2 Unbekannte Populationsvarianzen: Der t-Test für unabhängige Stichproben

335

11.2 Vergleich zweier Stichprobenmediane (?Wilcoxon-Rangsummen-Test bzw. U-Test?)

344

11.3 Vergleich zweier Stichprobenvarianzen (?Varianzhomogenitätstests?)

350

11.3.1 F-Test auf Varianzhomogenität

350

11.3.2 Levene-Test

353

11.4 Vergleich von Häufigkeitsverteilungen zwischen zwei unabhängigen Stichproben

355

11.4.1 Vierfelder-?2-Test

355

11.4.2 Fisher-Yates-Test

0

11.5 Der Zweistichproben-?2-Test

0

12 Unterschiede zwischen zwei abhängigen Stichproben

368

12.1 Vergleich der zentralen Tendenz zweier abhängiger Stichproben

370

12.1.1 Parametrischer Test: Der t-Test für abhängige Stichproben

370

12.1.2 Nonparametrische Tests

378

12.2 Vergleich von Häufigkeitsverteilungen zwischen zwei abhängigen Stichproben

0

12.2.1 Dichotome Merkmale: Der McNemar-Test

0

12.2.2 Mehrkategoriale Merkmale: Der Bowker-Test

387

13 Unterschiede zwischen mehreren unabhängigen Stichproben: Varianzanalyse und verwandte Verfahren

392

13.1 Einfaktorielle Varianzanalyse

393

13.1.1 Grundidee der Varianzanalyse

393

13.1.2 Messwertzerlegung

394

13.1.3 Zerlegung der Bedingungsmittelwerte und Effekte einzelner Bedingungen

395

13.1.4 Quadratsummenzerlegung

397

13.1.5 Populationsmodell der einfaktoriellen Varianzanalyse

400

13.1.6 Schätzung der Populationsparameter

403

13.1.7 Überprüfung der Nullhypothese: Der F-Test der einfaktoriellen Varianzanalyse

405

13.1.8 Verletzungen der Voraussetzungen

409

13.1.9 Effektgrößenmaße und Konfidenzintervall

410

13.1.10 Poweranalyse

414

13.1.11 Varianzanalyse mit zufälligen Effekten

416

13.1.12 Paarvergleiche und Post-hoc-Tests

416

13.1.13 Kontrastanalyse

421

13.2 Zweifaktorielle Varianzanalyse

431

13.2.1 Grundidee der zweifaktoriellen Varianzanalyse

433

13.2.2 Messwertzerlegung

433

13.2.3 Quadratsummenzerlegung

439

13.2.4 Populationsmodell der zweifaktoriellen Varianzanalyse

442

13.2.5 Schätzung der Populationsparameter

444

13.2.6 Überprüfung der Nullhypothesen

444

13.2.7 Effektgrößenmaße und Konfidenzintervalle

448

13.2.8 Post-hoc-Tests und geplante Kontraste

451

13.2.9 Ungleiche Stichprobengrößen: Nonorthogonale Varianzanalyse

454

13.2.10 Mehrfaktorielle Varianzanalyse

454

13.3 Test auf Gruppenunterschiede für Rangdaten (?Kruskal-Wallis-Test?)

455

13.4 Verfahren für kategoriale abhängige Variablen

457

14 Unterschiede zwischen mehreren abhängigen Stichproben: Varianzanalyse mit Messwiederholung ...

462

14.1 Einfaktorielle Varianzanalyse mit Messwiederholung

463

14.1.1 Messwertzerlegung

465

14.1.2 Quadratsummenzerlegung

465

14.1.3 Effektgrößenmaße

468

14.1.4 Populationsmodell der einfaktoriellen Varianzanalyse mit Messwiederholung

470

14.1.5 Schätzung der Populationsparameter

472

14.1.6 Inferenzstatistik der einfaktoriellen Varianzanalyse mit Messwiederholung

473

14.1.7 Sphärizität und Compound Symmetry

475

14.1.8 Effektgrößenmaße und Konfidenzintervalle

478

14.1.9 A-priori-Poweranalyse: Planung des optimalen Stichprobenumfangs

480

14.1.10 Kontrastanalyse

482

14.2 Zweifaktorielle Varianzanalyse mit Messwiederholung

485

14.2.1 Zweifaktorielle Varianzanalyse mit Messwiederholung auf beiden Faktoren

485

14.2.2 Zweifaktorielle Varianzanalyse mit Messwiederholung auf einem Faktor

493

14.3 Nichtparametrischer Test für Medianunterschiede zwischen abhängigen Stichproben ...

501

14.4 Verfahren für kategoriale abhängige Variablen

503

15 Unterschiede zwischen mehreren Stichproben auf mehreren abhängigen Variablen ...

506

15.1 Multivariate vs. univariate Varianzanalysen

506

15.2 Zielsetzungen und Grundideen der multivariaten Varianzanalyse

0

15.3 Einfaktorielle multivariate Varianzanalyse

508

15.3.1 Messwertzerlegung

508

15.3.2 Quadratsummenzerlegung

509

15.3.3 Kreuzproduktsummenzerlegung

509

15.3.4 Zusammenfassende Darstellung der Quadrat- und Kreuzproduktsummen

510

15.3.5 Diskriminanzfunktion

511

15.3.6 Effektgröße

515

15.3.7 Populationsmodell der multivariaten Varianzanalyse

0

15.3.8 Überprüfung der Nullhypothese

517

15.3.9 Effektgrößen und Konfidenzintervalle

0

15.3.10 Poweranalyse

523

15.3.11 Post-hoc-Tests und Kontrastanalyse

524

15.4 Spezialfälle und Erweiterungen

525

V Zusammenhangs- und Regressionsanalyse

528

16 Zusammenhänge zwischen zwei Variablen: Korrelations- und Assoziationsmaße

530

16.1 Erläuterung des Korrelationsprinzips an drei Beispielen

530

16.2 Tabellarische und grafische Darstellung von bivariaten Messwertreihen

532

16.3 Korrelationskoeffizienten

536

16.3.1 Zwei metrische Variablen

536

16.3.2 Zwei ordinalskalierte Variablen

544

16.3.3 Zwei dichotome nominalskalierte Variablen

554

16.3.4 Zwei polytome nominalskalierte Variablen

562

16.3.5 Eine dichotome Variable und eine metrische Variable

566

16.3.6 Eine dichotome nominalskalierte Variable und eine ordinalskalierte Variable

567

16.3.7 Weitere Skalenkombinationen

569

16.3.8 Wahl eines Korrelationskoeffizienten

570

16.4 Inferenzstatistik zu bivariaten Zusammenhangsmaßen

570

16.4.1 Zwei metrische Variablen

571

16.4.2 Assoziationsmaße für ordinale Variablen

580

16.4.3 Assoziationsmaße für dichotome Variablen

583

16.4.4 Assoziationsmaße für nominalskalierte Variablen

585

16.4.5 Andere Assoziationsmaße

586

17 Abhängigkeiten zwischen zwei Variablen: Einfache lineare Regression

590

17.1 Kleinste-Quadrate-Kriterium

592

17.2 Regressionsgleichung

596

17.3 Regressionsresiduum

597

17.4 Quadratsummenzerlegung und Varianzzerlegung

598

17.5 Determinationskoeffizient und Indeterminationskoeffizient

599

17.6 Negatives Regressionsgewicht und Regressionsrichtung

600

17.6.1 Negatives Regressionsgewicht

600

17.6.2 Regressionsrichtung

601

17.7 Regression standardisierter Werte

602

17.8 Bedeutung der linearen Regression

603

17.9 Inferenzstatistik der einfachen linearen Regression

603

17.9.1 Populationsmodell der einfachen linearen Regression

604

17.9.2 Inferenzstatistische Schätzung und Testung

605

17.9.3 Schätzung der Residualvarianz und des Standardschätzfehlers

607

17.9.4 Schätzung und Überprüfung des Regressionsgewichts ?1

607

17.9.5 Schätzung und Überprüfung des Achsenabschnitts ?0

608

17.9.6 Schätzung der bedingten Erwartungswerte

609

17.9.7 Vorhersage individueller Kriteriumswerte

610

17.9.8 Schätzung und Überprüfung des Determinationskoeffizienten

610

18 Partialkorrelation und Semipartialkorrelation

616

18.1 Aufgaben und Ziele der Partial- und Semipartialkorrelation

616

18.2 Partialkorrelation

621

18.3 Semipartialkorrelation

625

18.4 Inferenzstatistische Absicherung der Partial- und der Semipartialkorrelation

627

19 Multiple Regressionsanalyse

630

19.1 Zielsetzungen der multiplen Regressionsanalyse

630

19.1.1 Berücksichtigung von Redundanzen und Kontrolle von Störvariablen

630

19.1.2 Prognose und Erklärung

630

19.1.3 Analyse komplexer Zusammenhänge

631

19.2 Notation

632

19.3 Lineare Regression für zwei metrische unabhängige Variablen

633

19.3.1 Multiple Regression als kompensatorisches Modell

633

19.3.2 Grafische Darstellung

634

19.3.3 Bestimmung der Regressionskoeffizienten

634

19.4 Bedeutung der Regressionsgewichte

637

19.4.1 Multiple Regressionsgewichte als Regressionsgewichte bedingter einfacher Regressionen

637

19.4.2 Multiple Regressionsgewichte als Regressionsgewichte von Regressionsresiduen

638

19.4.3 Unstandardisierte vs. standardisierte Regressionsgewichte

640

19.5 Lineare Regression für mehrere metrische unabhängige Variablen

641

19.6 Multiple Korrelation und Determinationskoeffizient

642

19.7 Inferenzstatistik zur multiplen Regressionsanalyse

645

19.7.1 Populationsmodell der multiplen Regression

645

19.7.2 Inferenzstatistische Schätzung und Testung

646

19.7.3 Schätzung der Residualvarianz und des Standardschätzfehlers

647

19.7.4 Schätzung, Signifikanztest und Konfidenzintervalle für die multiple Korrelation ...

647

19.7.5 Schätzung, Signifikanztest und Konfidenzintervalle ...

0

19.7.6 Schätzung, Signifikanztest und Konfidenzintervalle für einen Satz unabhängiger Variablen

653

19.7.7 Verfahren zur Auswahl unabhängiger Variablen

656

19.7.8 Schätzung und Überprüfung des Achsenabschnitts ?0

0

19.7.9 Schätzung der bedingten Erwartungswerte und individuell prognostizierter Werte

0

19.8 Suppressorvariable

660

19.9 Moderierte Regressionsanalyse

664

19.9.1 Moderierte Regressionsanalyse: Zwei unabhängige Variablen

665

19.9.2 Moderierte Regression mit zentrierten Variablen

667

19.9.3 Inferenzstatistische Absicherung eines Moderatoreffekts

671

19.10 Analyse nicht-linearer Zusammenhänge

674

19.11 Analyse kategorialer unabhängiger Variablen

677

19.11.1 Dummy-Codierung

677

19.11.2 Effektcodierung

680

19.11.3 Vergleich von Dummy- und Effektcodierung

683

19.11.4 Inferenzstatistische Absicherung der Regressionsparameter

684

19.11.5 Analyse mehrerer kategorialer unabhängiger Variablen

685

19.11.6 Ordinale unabhängige Variablen

691

19.12 Gemeinsame Analyse kategorialer und metrischer unabhängiger Variablen

691

19.12.1 Additive Verknüpfung kategorialer und kontinuierlicher Variablen: Kovarianzanalyse

691

19.12.2 Kovarianzanalyse in quasi-experimentellen Designs

695

19.12.3 Interaktionen zwischen kategorialen und kontinuierlichen Variablen

703

19.13 Regressionsdiagnostik

705

19.13.1 Korrekte Spezifikation des Modells

705

19.13.2 Messfehlerfreiheit der unabhängigen Variablen

707

19.13.3 Ausreißer und einflussreiche Datenpunkte

708

19.13.4 Multikollinearität

713

19.13.5 Homoskedastizität

715

19.13.6 Unabhängigkeit der Residuen

716

19.13.7 Normalverteilung der Residuen

717

19.13.8 Multivariate Normalverteilung der Variablen

721

19.13.9 Verletzung der Annahmen und Konsequenzen

721

20 Hierarchische lineare Modelle (?Mehrebenenanalyse?)

728

20.1 Hierarchische Datenstrukturen

728

20.1.1 Risiko falscher Schlüsse bei der Interpretation von Zusammenhängen

729

20.1.2 Verletzung der Unabhängigkeitsannahme

731

20.1.3 Mehrebenenmodelle: Ein Überblick

733

20.2 Modelle der Mehrebenenanalyse

733

20.2.1 Das Intercept-Only-Modell

733

20.2.2 Das Random-Intercept-Modell

0

20.2.3 Das Random-Coefficients-Modell

736

20.2.4 Modelle mit festen Level-1- und Level-2-Effekten

739

20.2.5 Analyse von Kontexteffekten

740

20.2.6 Modelle mit Cross-Level-Interaktionseffekt

745

20.3 Parameterschätzung, inferenzstatistische Absicherung und Varianzaufklärung

746

20.3.1 Schätzung der Modellparameter

746

20.3.2 Inferenzstatistische Absicherung der Modellparameter

747

20.3.3 Passung des Modells auf die Daten

749

20.3.4 Wie viel Varianz klärt ein Prädiktor auf?

0

20.3.5 Poweranalyse und Stichprobenumfangsplanung

0

20.4 Modelle der Veränderungsmessung

757

20.4.1 Trendmodelle

758

20.4.2 Kontrastanalysen

763

20.5 Weitere Modelle

767

21 Log-lineare Modelle und Logit-Modelle

770

21.1 Zielsetzungen der log-linearen Analyse

770

21.1.1 Das Simpson-Paradox

770

21.1.2 Ein einführendes Beispiel: Sonnenschutzverhalten

772

21.2 Log-lineare Modelle für eine Analyse einer 2?×?2-Kontingenztabelle

773

21.2.1 Das multiplikative Modell

773

21.2.2 Das additive Modell

775

21.2.3 Das Modell mit einer Referenzkategorie

778

21.2.4 Vergleich der verschiedenen Formulierungen des Modells

779

21.2.5 Allgemeiner Fall einer I?×?J-Kontingenztabelle

779

21.3 Inferenzstatistische Absicherung

780

21.3.1 Populationsmodelle für eine 2?×?2-Kontingenztabelle

780

21.3.2 Parameterschätzung und Hypothesentestung

781

21.3.3 Standardfehler und Konfidenzintervalle

782

21.3.4 Signifikanztests

783

21.4 Überprüfung von Modellen

784

21.4.1 Statistische Überprüfung von Modellannahmen

784

21.4.2 Unabhängigkeitsmodell und saturiertes Modell

786

21.4.3 Hierarchische und nicht-hierarchische log-lineare Modelle

787

21.4.4 Modellvergleiche

787

21.4.5 Spezifikation von Modellen beim produkt-multinomialen Erhebungsschema

788

21.4.6 Effektgröße und Konfidenzintervall

789

21.4.7 Bestimmung der optimalen Stichprobengröße

789

21.5 Log-lineare Modelle für eine 2?×?2?×?2-Kontingenztabelle

791

21.5.1 Multiplikatives Modell

791

21.5.2 Additives Modell

792

21.5.3 Parameterschätzung und Modelltestung

792

21.5.4 Das log-lineare Modell für eine I?×?J?×?K-Kontingenztabelle

795

21.6 Logit-Modell

795

22 Logistische Regressionsanalyse

800

22.1 Grundidee der logistischen Regressionsanalyse für dichotome abhängige Variablen

800

22.1.1 Einfache logistische Regressionsanalyse

801

22.1.2 Multiple logistische Regression

810

22.2 Parameterschätzung

812

22.3 Hypothesenprüfung

813

22.3.1 Hypothesentests für einen einzelnen Parameter

813

22.3.2 Hypothesentests für ein Set von unabhängigen Variablen

816

22.3.3 Hypothesentests in Bezug auf alle unabhängigen Variablen

817

22.3.4 Zerlegung der Likelihood-Ratio-Teststatistik

817

22.4 Effektgrößen

818

22.5 Klassifikation

820

22.6 Bestimmung der optimalen Stichprobengröße

821

22.7 Voraussetzungen der Maximum-Likelihood-Schätzung und Hypothesentestung

823

22.8 Regressionsdiagnostik

824

22.8.1 Korrekte Spezifikation des Modells und Modellanpassungsgüte

824

22.8.2 Messfehlerbehaftetheit der unabhängigen Variablen und Multikollinearität

827

22.8.3 Identifikation von Ausreißern und einflussreichen Datenpunkten

827

22.8.4 Nullzellenproblem

828

22.9 Logistisches Regressionsmodell für mehrkategoriale nominalskalierte abhängige Variablen

829

22.10 Logistisches Regressionsmodell für ordinalskalierte abhängige Variablen

833

VI Modelle mit latenten Variablen

842

23 Messfehlertheorie und Klassische Testtheorie

844

23.1 Theoretische Konzepte der Klassischen Testtheorie

844

23.1.1 Theoretische Konzeption des Messfehlers

845

23.1.2 Theoretische Konzeption des wahren Wertes

847

23.1.3 Eigenschaften der Messfehler- und der True-Score-Variablen

849

23.1.4 Theoretische Konzeption der Reliabilität

850

23.2 Messmodelle

852

23.2.1 Modell essenziell ?-äquivalenter Variablen

852

23.2.2 Modell essenziell ?-paralleler Variablen

860

23.2.3 Modell ?-äquivalenter Variablen

861

23.2.4 Modell ?-paralleler Variablen

861

23.2.5 Zwischenfazit

862

23.2.6 Modell ?-kongenerischer Variablen

864

23.3 Vergleich der verschiedenen Testmodelle

870

23.4 Funktion von Testmodellen für die Psychodiagnostik

871

23.4.1 Itemselektion und Testkonstruktion

871

23.4.2 Messung latenter Merkmalsausprägungen

873

24 Mehrdimensionale Messmodelle und konfirmatorische Faktorenanalyse

878

24.1 Ein einführendes Beispiel: Die Konvergenz von Selbst- und Fremdbericht

878

24.1.1 Ein zweidimensionales Modell

880

24.1.2 Ein alternatives Modell: Modell mit Methodenfaktor

881

24.1.3 Verschiedene Darstellungsformen von Multidimensionalität

883

24.2 True-Score-Modelle vs. Faktormodelle

885

24.2.1 Uniqueness und Kommunalität

885

24.2.2 Faktoren und Ladungen

886

24.2.3 Konfirmatorische vs. exploratorische Faktorenanalyse

886

24.3 Grundidee der Faktorenanalyse

886

24.4 Allgemeine Fragen bei der konfirmatorischen Faktorenanalyse

888

24.4.1 Modellspezifikation: Warum Theorie so wichtig ist!

888

24.4.2 Identifizierbarkeit: Können alle Parameter eindeutig bestimmt werden?

890

24.4.3 Grundideen der Parameterschätzung und der Modelltestung

896

24.5 Schätzmethoden

899

24.5.1 Grundprinzip der Schätzmethoden

899

24.5.2 Maximum-Likelihood-Verfahren

900

24.5.3 Asymptotisch verteilungsfreie Verfahren

901

24.5.4 Andere Schätzmethoden

901

24.5.5 Wahl einer Schätzmethode

903

24.6 Beurteilung der Modellanpassungsgüte

904

24.6.1 Detailmaße der Anpassungsgüte: Residuen

904

24.6.2 Gesamtanpassung des Modells

0

24.6.3 Modellvergleiche

0

24.6.4 Modellmodifikationen

910

24.6.5 Erwartungswertstrukturen

910

24.7 Bestimmung der optimalen Stichprobengröße

911

24.7.1 A-priori-Poweranalyse zur Bestimmung der Stichprobengröße

911

24.7.2 Monte-Carlo-Simulationsstudie zur Bestimmung der Stichprobengröße

911

24.8 Faktorenanalyse für ordinale Variablen

912

24.8.1 Annahme einer itemspezifischen kontinuierlichen Variablen

913

24.8.2 Faktorenanalytisches Modell

914

24.9 Weitere Messmodelle mit latenten Variablen

916

25 Exploratorische Faktorenanalyse und Hauptkomponentenanalyse

920

25.1 Grundprinzipien der exploratorischen Faktorenanalyse

921

25.1.1 Grundgleichung der Faktorenanalyse

921

25.1.2 Schritte bei der exploratorischen Faktorenanalyse

921

25.2 Die Maximum-Likelihood-Faktorenanalyse

922

25.2.1 Annahmen der Maximum-Likelihood-Faktorenanalyse

922

25.2.2 Identifizierbarkeit und Anfangslösung

923

25.2.3 Bestimmung der Anzahl der Faktoren und Modellgültigkeit

924

25.2.4 Rotation

928

25.2.5 Interpretation der Ergebnisse

932

25.2.6 Bestimmung von Faktorwerten

933

25.3 Hauptachsenanalyse und Hauptkomponentenanalyse

933

25.3.1 Grundidee der Hauptkomponentenanalyse

934

25.3.2 Kriterien zur Bestimmung der relevanten Hauptkomponenten

938

25.3.3 Rotation und Ergebnisdarstellung

940

25.3.4 Die Hauptachsenanalyse

942

25.4 Vergleich der Ansätze und praktische Empfehlungen

943

25.5 Faktorenanalyse für dichotome und ordinale Variablen

946

25.6 Einzelfall-Faktorenanalyse und dynamische Faktorenanalyse

947

26 Pfadanalyse und lineare Strukturgleichungsmodelle

952

26.1 Pfadanalyse

953

26.1.1 Das pfadanalytische Modell als ein System von Regressionsmodellen

954

26.1.2 Parameterschätzung und Modellüberprüfung

956

26.1.3 Hypothesenüberprüfung

961

26.2 Lineare Strukturgleichungsmodelle

966

26.2.1 Messmodell und Strukturmodell

967

26.2.2 Parameterschätzung und Hypothesenüberprüfung

969

26.2.3 Latente autoregressive Modelle

969

26.2.4 Latent-State-Trait-Modell

973

26.2.5 Spezielle lineare Strukturgleichungsmodelle

976

26.2.6 Sind Strukturgleichungsmodelle Kausalmodelle?

976

Anhang

980

Glossar

982

Literaturverzeichnis

1000

Hinweise zu den Online-Materialien

1018

Anhang A: Tabellen

1020

1 Binominalverteilung

1020

2 Standardnormalverteilung

1032

3 Zentrale t-Verteilung

1033

4 Wilcoxon-Vorzeichen-Rangtest

0

5 Zentrale ?2-Verteilung

1035

6 Kritische Werte für den Kolmogorov-Smirnov-Test und den Lilliefors-Test

1036

7 Wilcoxon-Rangsummen-Test

1039

8 Zentrale F-Verteilung

1042

9 Kritische Werte für die Differenz nK???nD

1049

Anhang B: Matrixalgebra

1052

1 Matrix

1052

2 Vektor

1052

3 Grundlegende Rechenoperationen mit Matrizen

1053

4 Spezielle Matrizen

1056

5 Demonstration der Berechnung einiger statistischer Kennwerte mittels Matrixalgebra

1059

Sachwortverzeichnis

1064

Leere Seite

0