Buch-Präsentationen in der IP-GIPT
Empirische Methoden in der Psychologie
präsentiert von Rudolf
Sponsel, Erlangen
Bibliographie * Verlagsinfo * Inhaltsverzeichnis * Leseprobe * Ergebnisse * Bewertung * Links * Literatur * Querverweise *
Bibliographie: Pospeschill, Markus (2013) Empirische Methoden in der Psychologie. Mit Online-Material. München: Reinhardt. [Verlags-Info] 2013. 274 Seiten. 41 Abb. UTB-M (978-3-8252-4010-3) kt € [D] 34,99 / € [A] 36,00 / SFr 45,90. Preis E-Book: € [D] 27,99.
Verlagsinfo:
"Keine Angst vor Empirie!
Gefürchtet, aber unverzichtbar: Kenntnisse empirischer Methoden
brauchen Psychologiestudierende in allen Studienphasen und im späteren
Berufsleben. Dieses Buch liefert das begriffliche Rüstzeug und überträgt
es auf die Planungsschritte einer Untersuchung. Es stellt Methoden der
Datenerhebung und Anwendungen empirischer Forschungsprinzipien vor und
befähigt dazu, empirische Befunde selbstkritisch zu bewerten. Damit
gelingt die Methodenprüfung ebenso wie das eigene Forschungsprojekt
für die Bachelor- oder Masterarbeit."
Inhaltsverzeichnis [PDF]
Hinweise zur Benutzung dieses Lehrbuchs 9
Prolog 10
1 Methoden, Methodologie, Empirie 14
1.1 Methode 14
1.2 Methodologie 16
1.3 Empirie 17
1.4 Empirische Daten und Variablen 18
1.5 Empirische Fragestellung und Hypothese 19
1.6 Theorien, Gesetze, Paradigmen 23
1.7 Grenzen empirischer Forschung 29
2 Forschungsprozess 34
2.1 Untersuchungsidee und Thema 35
2.2 Wissenschaftliche und ethische Kriterien 37
2.3 Problempräzisierung 39
2.4 Definition von Begriffen 44
2.5 Indikatoren und Operationalisierung 50
2.6 Messen und Skalieren 56
2.7 Festlegung von Untersuchungsart und -objekten 60
2.8 Planung, Durchführung, Auswertung 64
2.9 Empirischer Bericht, Gutachten 66
3 Evaluation 74
3.1 Arten systematischer Erfolgskontrollen 74
3.2 Studienarten 80
3.3 Kosten-Nutzen-Analyse 86
3.4 Stichprobenauswahl 87
3.5 Durchführung und Auswertung 88
4 Methoden der Datenerhebung 91
4.1 Auszählen und Bilden von Indizes 91
4.2 Rangbildung und Paarvergleich 94
4.3 Ratingskalen 104
4.4 Testskalen 111
4.5 Schriftliche vs .mündliche Befragung 118
4.6 Formen wissenschaftlicher Beobachtung 124
4.7 Psychophysiologische Messung 126
4.8 Qualitative Interviews und Beobachtung 129
4.9 Multimethodale Methode 133
5 Hypothesengenerierende Untersuchungsformen 137
5.1 Voruntersuchung und Vortestung 137
5.2 Theoriebasierte Explorationsstudien 138
5.3 Methodenbasierte Explorationsstudien 140
5 4 Empiriebasierte Explorationsstudien 142
6 Populationsbeschreibende Untersuchungsformen 144
6.1 Zufallsstichprobe und Repräsentativität
144
6.2 Punkt- und Intervallschätzung 149
6.3 Probabilistische Stichprobentechniken 150
6.4 Nicht-probabilistische Stichproben 153
7 Hypothesenprüfende Untersuchungsformen 156
7.1 Signifikanztests und damit verbundene Probleme
156
7.2 Zusammenhangs-, Unterschieds-, Veränderungshypothesen
160
7.3 Prognostische Hypothesen und die Messung von Differenzen
177
7.4 Poweranalyse 180
7.5 Effektgrößenbestimmung 181
7.6 Schätzung optimaler Stichprobenumfänge
184
7.7 Strategien zur Vereinheitlichung von Effektgrößen
186
8 Einzelfallprüfende Untersuchungsformen 191
8.1 Problematik von Einzelfallstudien 191
8.2 Statistische Verfahren für Einzelfalldesigns
195
8.3 Statistische vs .visuelle Analyse 201
8.4 Randomisierungs- und Permutationstests 210
8.5 Verallgemeinerte Prinzipien des Randomisierungstests
225
8.6 Einzelfalldiagnostik 229
9 Besondere Probleme und Herausforderungen
249
9.1 Parametrische vs .verteilungsfreie Tests 249
9.2 Zusammenfassung statistischer Einzelentscheidungen
250
9.3 a-Fehler-Adjustierung 254
9.4 Bootstrap-Methode 258
9.5 Exakte Tests 259
Literatur 265
Sachregister 269
Online-Material
Glossar [PDF]
Antworten (Lösungen) [PDF]
Abbildungen [PDF]
Drei Beispiele:
Operationalisierung
Unter der Operationalisierung eines Begriffes ist die Angabe
derjenigen Vorgehensweisen bzw. Forschungsoperationen zu verstehen, mit
deren Hilfe entscheidbar wird, ob und in welchem Ausmaß der mit dem
Begriff bezeichnete Sachverhalt in der Realität vorliegt: Dazu gehört
die Angabe des Datenerhebungsinstrumentes und bei nur indirekt empirischen
Begriffen auch die Auswahl geeigneter Indikatoren. Im letzteren Fall ist
die Operationalisierung ein zweistufiger Prozess, d. h. in einem ersten
Schritt müssen die Indikatoren bestimmt werden und im zweiten Schritt
sind diese zu operationalisieren (Abb. 2.4).
Fragen zum Messinstrument. Bei der Operationalisierung
geht es um genaue (technische) Anweisungen, wie im konkreten Fall vorzugehen
ist, um die gewünschten Informationen aus der Realität zu erhalten:
Dazu gehören z. B. Bestimmungen, wie ein Messinstrument (z. B. ein
Fragebogen oder eine experimentelle Anordnung) zu gestalten und vor Ort
(d. h. beim Befragten / Probanden) zu handhaben ist. Daher gehören
Fragen dazu wie: Welche Fragen sollen in welcher Reihenfolge und in welchen
Formulierungen gestellt werden? Soll man standardisierte Interviews oder
unstandardisierte Befragungsformen wählen? Soll eine schriftliche
oder eine telefonische Befragung vorgenommen werden? Welche Instruktion
ist zu geben?
Operationalisierung bedeutet: Wissenschaftliche
Begriffe müssen so formuliert sein, dass jederzeit darüber entschieden
werden kann, ob dieser Begriff zutrifft oder nicht. Mit dem Begriff muss
eine Anweisung für bestimmte Operationen - Experimente, Beobachtungen
etc. -verbunden sein, aufgrund derer über das Vorliegen resp. Nichtvorliegen
des Begriffes entschieden werden kann. Anders formuliert: Aussagen können
nur dann als wissenschaftlich sinnvoll akzeptiert [>54] werden, wenn die
in ihnen enthaltenen relevanten Begriffe operationalisierbar sind, da nur
dann festgestellt werden kann, ob diese Aussage zutrifft."
Die Einzelfalldiagnostik steht vor einem Grundsatzproblem, wenn von gruppenstatistischen Kennwerten auf einen Einzelfall geschlossen werden soll. Diese Problematik ergibt sich immer dann, wenn die Reliabilitât und/oder Validität eines Verfahrens kleiner als 1,0 ist. Dies liegt daran, dass sich mathematische Wahrscheinlichkeitsaussagen per definitionem nicht auf Einzelfälle, sondern immer nur auf Klassen von Elementen bestimmten Umfangs beziehen (Aussagen, die auf sogenannten Aggregatdaten basieren).
Dieses Problem resultiert vor allem aus dem Umstand, dass psychologische Testverfahren in ihrer theoretischen Konzeption, ihrer Testkonstruktion und in ihren Gütekriterien auf Kennwerten basieren, die aus Stichproben gewonnen werden. Angewendet auf den Einzelfall ist die Aussagekraft solcher Kennwerte deshalb erheblich begrenzt bzw. nicht anwendbar.
Ein Korrelationskoeffizient erlaubt nur dann eine Übertragbarkeit auf Einzelfälle, wenn die Korrelation r= ±1 beträgt, denn nur dann ist die Interpretation des Zusammenhangs zwischen zwei Variablen eindeutig. Eine Korrelation r = 0 hingegen erlaubt verschiedene Interpretation für das Zustandekommen: Eine wechselseitige Überlagerung positiver und negativer Korrelationen (unechte Nullkorrelation) oder einen rein zufälligen Zusammenhang zwischen Variablen (echte Nullkorrelation). Somit sagt ein an einer Gesamtgruppe ermittelter Koeffizient unterhalb der Extremwerte nichts über etwaige Subgruppen oder sogar Einzelfälle aus.
Generell gilt, dass sich statistische Maße wie ein Korrelationskoeffizient oder ein Standardschätzfehler immer auf eine Klasse von Elementen (ein Aggregat), aber nicht auf einzelne Elemente der Klasse beziehen. Daraus folgt, dass z. B. der Grad einer Vorhersagegenauigkeit (im Sinne einer prädiktiven Validität) bzw. der Vorhersagefehler für den Einzelfall nicht bestimmt werden kann.
Eine Konsequenz dieser Problematik ist, das insbesondere bei Einzelfalldiagnostiken eine hohe Réhabilitât der Messwerte bzw. des verwendeten Messverfahrens vorauszusetzen ist: Je höher die Réhabilitât, desto höher ist die Wahrscheinlichkeit, dass der wahre Wert einer Person nahe an dem beobachteten Messwert einer Person liegt. Eine Abschätzung dazu erlaubt die Bestimmung eines Konfidenzintervalls (Vertrauens-/ Sicherheitsintervalls), also die Bestimmung des Bereichs um einen beobachteten Wert, der mit einer bestimmten (Sicherheits-) Wahrscheinlichkeit (z.B. 95 oder 99 Prozent) die Lage des wahren [>] ..."
Anmerkung RS: Schön ist, dass der Autor auf diese Problematik klar und deutlich hinweist. Das Problem der Nichtübertragbarkeit gruppenstatistischer Kennwerte auf den Einzelfall gilt aber immer, völlig unabhängig von der Reliabilität oder ihrer Korrelation. Und die Voraussetzungen der psychologischen ("klassischen") Testtheorie (Axiome des Vektorraumes) sind in aller Regel nicht erfüllt. Das wird von den Methodologen, Statistikern und mathematisch orientierten Psychologen konsequent ausgeblendet, was mit wissenschaftlicher Ethik nicht vereinbar ist.
Die Datentheorie und damit die Grundlage jeder empirischen Wissenschaft kommt leider zu kurz. Die grundlegende Problematik der psychologischen Testtheorie und der Mess- und Skalierungsmethoden in der Psychologie, die ja meist zwischen Ordinal- und angenähertem Intervallskalenniveau (> Stevens) angesiedelt sind - wird so wenig wie in anderen Lehrbüchern - klar und deutlich problematisiert, obwohl die in der Psychologie übliche "per fiat Messung" erfreulicherweise sogar eine eigene fette Randkennzeichnung erhält (S. 59). Die zentralen Grundbegriffe der Messtheorie - Repräsentations-, Eindeutigkeits- und Bedeutsamkeitsproblem - werden zwar beschrieben, aber - wie in den anderen Lehrbüchern leider auch - keine echte psychologische Anwendung gezeigt. Die Probleme sind nun schon über 150 Jahre alt, aber eine Lösung zeichnet sich nirgendwo ab, so dass zu fragen ist, ob man die Methodologie-, Mess- und Statistiklehrstühle wie die "Psychometrika" nicht am besten auflöst und einstellt.
Suchen in der IP-GIPT,
z.B. mit Hilfe von "google": <suchbegriff>
site:www.sgipt.org
Buchpräsentation site:www.sgipt.org. |