Statistik für Psychologen und Sozialwissenschaftler

Für die wissenschaftliche Arbeit ist der Umgang mit statistischen Verfahren in einer Vielzahl von Wissenschaftsdisziplinen heutzutage unerlässlich. Deshalb wird der Vermittlung theoretischer Grundlagen zum Einsatz statistischer Verfahren, der Präsentation von Standardverfahren und der Erlernung des Umgangs mit diesen innerhalb der entsprechenden Software SPSS sowie mit weiteren, sehr speziellen Verfahren in den verschiedenen Wissenschaftsdisziplinen im Zusammenhang mit ersten wissenschaftlichen Ergebnissen im Studium auch entsprechender Platz eingeräumt. Das Thema gestaltet sich oftmals als sehr anspruchsvoll, gilt es doch, die Arbeit an einem wissenschaftlichen Prozess insgesamt zu überblicken, Forschungsfragestellungen und Hypothesen zu formulieren, den Einsatz geeigneter Formen der Datenerhebung zu planen und umzusetzen und dann auch eine statistische Absicherung der Erkenntnisse zu gewährleisten. Dies ist ein Bündel von Aufgaben, das an vielen Stellen eine hohen Abstraktionsgrad aufweist und theoretisch anspruchsvoll ist. Um letztlich eine korrekte Entscheidung für eine geeignete statistische Methode treffen zu können, müssen die anderen Teilaufgaben entsprechend durchdacht und entschieden sein. Die Autoren dieses Lehrbuchs für Studenten haben sich dafür entschieden, die Leser anhand sehr praktischer Beispiele (hier ist es die Erfassung von Leistungsmotivation mit verschiedenen Methoden) und des Umgangs mit ihnen durch diese Teilprozesse zu führen. Das hat den Vorteil, dass einerseits sehr schnell die Bedeutung der Statistik deutlich wird, aber auch ihr Nutzen. Außerdem entsteht dadurch eine Art praktische Handreichung, die dann auf andere, eigene Beispiele übertragen werden kann. Der Gesamtprozess startet mit einer genauen Betrachtung der erhobenen Daten mittels deskriptiver Statistik auf dem Hintergrund der eigenen Hypothesen. Dabei ist zu klären, wie viele abhängige und unabhängige Variable im Untersuchungsdesign enthalten sind und wie viele von ihnen den verschiedenen Hypothesen zugeordnet werden können. Zu klären ist ebenfalls, ob es sich um diskrete oder kontinuierliche Variable handelt, da davon das weitere Vorgehen abhängt. Bei diskreten Variablen stellt sich danach die Frage nach der Zahl der Stufen der unabhängigen Variablen und ob es sich um abhängige oder unabhängige Messungen handelt. Die Prüfung der Voraussetzungen für die Nutzung eines entsprechenden parametrischen Verfahrens und die Durchführung eines bestimmten Hypothesentests stehen dann zum Abschluss auf der Tagesordnung. Die Verteilungseigenschaften der abhängigen Verfahren spielen oftmals eine entscheidende Rolle für die Festlegung auf einen bestimmten statistischen Test. Dieses Statistiklehrbuch behandelt all diese Fragen, kommt dabei natürlich auch nicht ohne entsprechende Formeln aus. Die werden so erläutert, dass den Lesern klar wird, welche Einflussfaktoren sich auf das Ergebnis auswirken. Besonderer Wert wird auf die Versuchsplanung gelegt. Ergänzt wird das Buch durch Fragen und Übungsbeispiele am Ende eines jeden Kapitels. Inhaltsverzeichnis Vorwort 1 Kapitel 1 Einführung 1.1 Ziele 1.2 Messtheorie und deskriptive Statistik 1.3 Grundlagen der Wahrscheinlichkeitsrechnung 1.4 Inferenzstatistik 1.5 Parametrische und nonparametrische Verfahren zur Unterschiedsprüfung 1.6 Verfahren zur Prüfung von Mittelwertsunterschieden bei mehr als zwei Gruppen 1.7 Korrelation und Regression Literatur Kapitel 2 Messtheorie und deskriptive Statistik 2.1 Messen 2.1.1 Wichtige Begriffe 2.1.2 Einführung in die Messtheorie 2.1.3 Skalenniveaus 2.1.4 Grundlagen der Testtheorie 2.2 Deskriptive Statistiken 2.2.1 Häufigkeiten und Kategorienbildung 2.2.2 Zentrale Tendenz 2.2.3 Dispersionsmaße 2.2.4 Schiefe und Exzess 2.2.5 Die Normalverteilung 2.2.6 Transformationen 2.3 Grafische Darstellungen 2.4 Vorgehen in SPSS 2.4.1 Deskriptive Statistiken 2.4.2 Grafische Darstellungen 2.4.3 Deskriptive Statistiken und grafische Darstellungen Übungen Literatur Kapitel 3 Grundlagen der Wahrscheinlichkeitsrechnung 3.1 Begriffsklärung 3.1.1 Das Zufallsexperiment 3.1.2 Die Zufallsvariable 3.1.3 Der Ereignisraum. 3.1.4 Das Elementarereignis. 3.1.5 Das logische UND 3.1.6 Das logische ODER 3.1.7 Das sichere Ereignis 3.1.8 Das unmögliche Ereignis 3.1.9 Komplementärereignis 3.1.10 Disjunkte Ereignisse 3.1.11 Nicht-disjunkte Ereignisse 3.2 Bestimmung der Wahrscheinlichkeit für ein Ereignis 3.2.1 Wahrscheinlichkeit nach Laplace 3.2.2 Wahrscheinlichkeit nach Bernoulli 3.3 Bestimmung der Wahrscheinlichkeit für das Eintreten mehrerer Zufallsereignisse 3.3.1 Bedingte Wahrscheinlichkeit 3.3.2 Additionssatz 3.3.3 Multiplikationssatz. 3.3.4 Der Wahrscheinlichkeitsbaum 3.4 Kombinatorik Übungen Literatur Kapitel 4 Inferenzstatistik 4.1 Hypothesentests 4.1.1 Statistische Hypothesen aufstellen 4.1.2 Entscheidungsregeln festlegen 4.1.3 Stichprobenziehung 4.1.4 Vorüberlegung zur Datenauswertung. 4.1.5 Daten auswerten 4.1.6 Eine Entscheidung treffen. 4.2 Effektstärke 4.3 Fehler 2. Art und Teststärke 4.4 Der Ärger mit der Wunschhypothese. 4.5 Versuchsplanung mit G*Power 4.5.1 Stichprobenplanung und Berechnung der post-hoc-Teststärke bei unabhängigen Stichproben 4.5.2 Stichprobenplanung und Berechnung der post-hoc-Teststärke bei abhängigen Stichproben 4.6 Zusammenfassung Hypothesentests 4.7 Gebräuchliche Verteilungen 4.7.1 Diskrete Verteilungen (Binomialverteilung) 4.7.2 Stetige Verteilungen Übungen Literatur. Kapitel 5 Parametrische und nonparametrische Tests zur Unterschiedsprüfung 5.1 Parametrische Verfahren bei zwei Gruppen 5.1.1 t-Test für eine Stichprobe - Einstichprobenproblem 5.1.2 t-Test für abhängige Stichproben 5.1.3 t-Test für unabhängige Stichproben 5.2 Nonparametrische Verfahren 5.2.1 Vorzeichen-Rang-Test von Wilcoxon für abhängige Stichproben 5.2.2 U-Test für unabhängige Stichproben 5.3 Nonparametrische Verfahren (nominale Messwerte) 5.3.1 ²-Anpassungstest 5.3.2 ²-4-Felder-Test 5.3.3 McNemar-Test Übungen Literatur. Kapitel 6 Verfahren zur Prüfung von Mittelwertsunterschieden bei mehr als zwei Gruppen 6.1 Grundidee 6.1.1 Zweck der Varianzanalyse 6.1.2 Prinzip der Varianzanalyse. 6.1.3 Ausblick 6.2 Einfaktorielle Varianzanalyse ohne Messwiederholung 6.2.1 Grundprinzip der einfaktoriellen ANOVA ohne Messwiederholung. 6.2.2 Vorgehen bei der einfaktoriellen ANOVA 6.2.3 Effektstärken bei der einfaktoriellen Varianzanalyse 6.2.4 Teststärke und Stichprobenplanung bei der einfaktoriellen Varianzanalyse 6.2.5 Voraussetzungen 6.2.6 Beispiel mit SPSS 6.3 Kruskal-Wallis-Test. 6.3.1 Grundprinzip bei der Rangvarianzanalyse nach Kruskal und Wallis 6.3.2 Vorgehen bei der Rangvarianzanalyse an einem Beispiel 6.3.3 Voraussetzungen 6.3.4 Beispiel mit SPSS 6.4 Zweifaktorielle Varianzanalyse ohne Messwiederholung 6.4.1 Grundprinzip und Vorgehen bei der zweifaktoriellen Varianzanalyse ohne Messwiederholung 6.4.2 Effektstärken bei der zweifaktoriellen Varianzanalyse 6.4.3 Interpretation von Wechselwirkungen 6.4.4 Teststärke und Stichprobenplanung bei der zweifaktoriellen Varianzanalyse 6.4.5 Voraussetzungen 6.4.6 SPSS-Beispiel 6.5 Einfaktorielle Varianzanalyse mit Messwiederholung 6.5.1 Grundprinzip 6.5.2 Vorgehen bei der einfaktoriellen Varianzanalyse mit Messwiederholung 6.5.3 Effektstärken bei der einfaktoriellen Varianzanalyse mit Messwiederholung 6.5.4 Teststärke und Stichprobenplanung bei der einfaktoriellen Varianzanalyse mit Messwiederholung 6.5.5 Voraussetzungen 6.5.6 SPSS-Beispiel 6.6 Friedman-Test 6.6.1 Grundprinzip und Vorgehen beim Friedman-Test 6.6.2 Effektstärken beim Friedman-Test 6.6.3 Teststärke und Stichprobenplanung beim Friedman-Test 6.6.4 Voraussetzungen 6.6.5 SPSS-Beispiel 6.7 Zweifaktorielle Varianzanalyse mit Messwiederholung (gemischtes Design) 6.7.1 Grundprinzip und Vorgehen bei der zweifaktorielle Varianzanalyse mit Messwiederholung (gemischtes Design) 6.7.2 Effektstärken bei der zweifaktoriellen Varianzanalyse 6.7.3 Teststärke und Stichprobenplanung bei der zweifaktoriellen Varianzanalyse (gemischtes Design) 6.7.4 Voraussetzungen. 6.7.5 SPSS-Beispiel 6.8 A-priori-Kontraste, post-hoc-Tests und Trendtests 6.8.1 A-priori-Kontraste 6.8.2 Post-hoc-Tests 6.8.3 Trendtests Übungen Literatur Kapitel 7 Korrelation und Regression 7.1 Korrelationen 7.1.1 Einfache lineare Regression 7.1.2 Regression, Korrelation und kausale Interpretation 7.1.3 Kovarianz 7.1.4 Bivariate Korrelation (Produkt-Moment-Korrelation) 7.1.5 Korrelationsunterschiede 7.1.6 Spearman-Rangkorrelation und Kendalls-tau 7.1.7 Produkt-Moment-Korrelation, Spearman-Rangkorrelation und Kendalls-tau mit SPSS 7.1.8 Punktbiseriale Korrelation und biseriale Rangkorrelation 7.1.9 Phi-Koeffizient, tetrachorische und polychorische Korrelation 7.1.10 Guttmans ?2 7.1.11 Übersicht über Korrelationskoeffizienten 7.2 Multiple lineare Regression 7.2.1 Einführung 7.2.2 Partial- und Semipartialkorrelation 7.2.3 Berechnung von - bzw. b-Gewichten 7.2.4 Berechnung von R² 7.2.5 Signifikanz von R² und -Gewichten 7.2.6 Zusammenfassung: Interpretation R² und 7.2.7 Effektstärke und Teststärke für R² 7.2.8 Voraussetzungen 7.2.9 Methoden im Rahmen der Regressionsanalyse 7.2.10 Verknüpfung mehrerer Regressionsanalysen 7.2.11 Suppressionseffekte 7.2.12 Multiple Regression zur Theorie-Entwicklung 7.3 Dummy-Kodierung. 7.4 Regression zur Mitte 7.5 Multiple Regression mit SPSS 7.6 Hierarchische lineare multiple Regression mit SPSS 7.7 Mediation und Moderation in SPSS 7.7.1 Mediation 7.7.2 Moderation 7.8 Mediation mit AMOS Übungen Literatur. Anhang A: Lösungen Anhang B: Tabellen Anhang C: Register
© Copyright 2009 Veröffentlicht von Pearson Studium. Alle Rechte vorbehalten.

Bibliographische Detailangaben
Schlagworte:
Notationen:Naturwissenschaften und Technik
Sprache:Deutsch
Veröffentlicht: München Pearson Studium 2009
Ausgabe:München: Pearson Studium, 2009.- 816 S.
Seiten:816
Dokumentenarten:Buch
Level:hoch