Praktisch wichtige Grundfragen an die statistische Wissenschaft
Besonderheiten und Zusammenhänge: Kovarianzen sind nicht standardisiert (nicht normiert auf die Standardabweichung). Wird mit standardisierten Werten gerechnet, ist die Kovarianzmatrix mit der Korrelationsmatrix identisch. In der schließenden (Inferenz-) Statistik wird wegen der Erwartungstreue nicht durch n, sondern durch 1/(n-1) dividiert. Die Kovarianz steht in der Korrelationsformel nach Bravais-Pearson im Zähler.
__
Kovarianzanalyse
Im  Dorsch  wird ausgeführt: "Kovarianzanalyse (= K.) [engl. analysis of covariance], [FSE], Erweiterung des varianzanalytischen Verfahrens, um (1) den Versuchsfehler zu verringern, indem verzerrende Einflüsse möglicherweise konfundierter Drittvariablen (Konfundierung) kontrolliert werden, oder (2) die Wirkung von unabhängigen Variablen auf die Kovarianz zweier abhängiger Variablen zu analysieren. Die Anwendung einer K. ist z. B. erforderlich, wenn die Wirkung zweier Lernmethoden auf die Behaltensleistung an zwei Gruppen untersucht werden soll, die sich in ihrer Intelligenz (konfundierte Variable) unterscheiden, da angenommen werden kann, dass Intelligenz und Behaltensleistung nicht unabhängig voneinander sind. Kovariate, Varianzanalyse, Propensity score."
    In einem Vergleich Varianz- und Kovarianzanalyse stellen Röhr et al. (1983), S. 299 fest: "Durch beide Untersuchungen wird belegt, daß mittels Kovarianzanalyse Fehlentscheidungen (möglicherweise schwerwiegender Art) vermeidbar sind. Da es in Pädagogik und Psychologie sicher ist, daß Effektvariablen durch zahlreiche Kovariablen beeinflußt werden könnten oder tatsächlich beeinflußt werden, erweist sich die Kovarianzanalyse in vielen Fällen als geeignetere Analysetechnik. Es soll nicht unerwähnt bleiben, daß man beispielsweise mit der Homogenisierung von Gruppen ein Mittel in der Hand hat, um Unterschiede in Kovariablen auszugleichen. ..."
    Röhr et al. (1983), S. 305 zählen folgende Voraussetzungen auf: "Voraussetzungen und deren Überprüfung
Die Voraussetzungen für die einfache Kovarianzanalyse müssen naturgemäß mit denen der einfachen Varianzanalyse zusammenfallen, sofern sie allein die Effektvariable Y betreffen. Da zusätzlich zu Y die Kovariable X1 betrachtet wird, kommen jedoch weitere Voraussetzungen hinzu, die die Regression von X1 auf Y betreffen. Zusammengefaßt heißen die Voraussetzungen für eine kovarianzanalytische Auswertung:
I  Für X1 und Y liegen Meßwerte vor.
II  Aus jeder der p Grundgesamtheiten wurde eine Zufallsstichprobe vom Umfang ni (i = 1,... , p) entnommen. Die Stichproben sind voneinander unabhängig.
III  Die Effektvariable Y ist in jeder der p Grundgesamtheiten normalverteilt.
IV  Die Varianzen Sig2 für F sind in allen p Grundgesamtheiten gleich (Homogenität der Varianzen).
V   In jeder der p Grundgesamtheiten existiert eine lineare Regression von X1 auf Y.
VI  Die Regressionskoeffizienten ßi sind in allen p Grundgesamtheiten gleich (Homogenität der Regressionen).
Die Erfüllung von I und II muß vom Experimentator durch eine geeignete Versuchsplanung von vornherein gesichert werden, da eine mathematisch-statistische Überprüfung nicht möglich ist. Für III ist es erforderlich, mittels geeigneter Verfahren die Anpassung der p empirischen Verteilungen von Y an die zugehörigen Normalverteilungen zu ermitteln.
    Verwendet man das chi2-Verfahren, ist es ratsam, dies in eine Voruntersuchung zu verlagern, da die Stichprobengrößen ni bei einer Kovarianzanalyse oft nicht die für den Test nötigen Größenordnungen (etwa ni > 60) besitzen."
__
Kurtosis  Das 4. Moment. Maß oder Kennwert für die Wölbung, Steil- oder Flachheit einer eingipfligen Verteilung.
__
Laborwertnormen.
__
Längsschnitt-Statistik (Longitudinal). Erhebung von Werten über verschiedene Zeit- bzw. Messzeitpunkte hinweg, z. B. alle zwei Monate Bestimmung der Leberwerte für die Dauer eines Jahres. > Querschnitt.
__
Lag Lücke zwischen zwei Markierungen, in der Zeitreihenanalyse der Wert für die Verschiebung, z.B. 1, 2, 3, ...
__
Laplace-Experiment. "Ein stochastisches Experiment heißt Laplace-Experiment, wenn die zugehörige Wahrscheinlichkeitsverteilung gleichmäßig ist."  Die Wahrscheinlichkeit bei einem Laplace-Experiment ergibt sich dann mit p = günstige Fälle/ mögliche Fälle. (Beispiele: Urne, Würfel, Münze)
    Quelle: Barth,F. & Haller, R.  (1984a). Stochastik Leistungskurs. München: Ehrenwirt.
__
Letalität. Sterblichkeit.
__
Likelihood. Engl.: Mutmaßlichkeit, Wahrscheinlichkeit. Manchmal auch das Verhältnis von (relativen) Häufigkeiten, wodurch sich Werte größer 1 ergeben können. Das Prinzip besteht in der Überlegung bei einer erhaltenen Wahrscheinlichkeit diesen für den wahrscheinlichsten zu halten. Nimmt man eine Verteilung an, so kann man ausrechnen, welcher Parameter, z.B. die relative Häufigkeit - die ein Maximum Likelihood Schätzer für den Mittelwert ist - am besten zu dem gegebenen Wert passt > Maximum Likelihood Methode.
__
Likelihood-Quotient  L = p(S|B) / p(S|-B). Allgemein in Worten: Das Verhältnis der Wahrscheinlichkeit für einen Sachverhalt S unter der Bedingung B gegenüber der Nichtgegebenheit der Bedingung B, also -B. Für L =1 spielt B oder -B keine Rolle. Je mehr L > 1 desto stärker wirkt B für S, je mehr L < 1, desto geringer wirkt B für S.
    Likelihood-Überlegungen spielen auch in der juristischen Indizienbewertung eine wichtige Rolle. Bender & Nack (1995) Tatsachenfeststellung vor Gericht. Bd. 1 Glaubwürdigkeits- und Beweislehre. München: Beck gehen im 2. Teil, Beweislehre, ausführlich mit Beispielen darauf ein (Rn 403-485 oder S. 226-275). Bsp. S. 228:  Angenommen 30% aller betrunkenen Mofafahrer (B) fahren ohne Licht (S), während das bei den nüchternen Mofafahrern (-B) nur in 5% der Fall ist, so ergibt sich ein L = 0.30 / 0.05 = 6. Das heißt, die Wahrscheinlichkeit ohne Licht zu fahren, ist unter Trunkenheit 6x größer als bei Nüchternen.

Likelihood-Quotienten-Test. Vergleicht die Wahrscheinlichkeiten für die Null- und Alternativhypothese unter den Annahmen, dass sie richtig sind. Diese Idee erscheint gegenüber dem Signifikanztest, der mit Annahme A1 eine Annahme A2 mit einer anderen Annahme A3 vergleicht, und keinerlei Aussage über die Wirklichkeit erlaubt, etwas informativer. Nachteil: parametrische Voraussetzungen. Anwendung Forensik [z.B. Q].
__
Likelihood Ratio
__
Likelihood Ratio, negative
__
Likelihood Ratio, positive
__
Logik  Lehre vom richtigen Schließen aufgrund der Form. Wenn zu jedem S ein P gehört und M ein S ist, dann gehört zu M auch ein P. Die Inhalte von S, P, M spielen hier keine Rolle. Der Schluss ist logisch immer richtig, unabhängig davon, was man für S, P und M einsetzen mag. Ein logisches Urteil ergibt sich oder gilt aus "rein" logischen Gründen.
__
Longitudinal > Längsschnitt.
__
Masstheorie  mathematische Theorie des Messens
__
MA Moving Average Modell. > Zeitreihenanalyse. [, Matlab, ]
__
Markovkette
__
Maximale Clique (auch: Maximaler vollständiger Untergraph). Ausdruck der Graphentheorie und Klassifikation. Eine maximale Clique ist eine Clique, die durch das Umfassen eines mehr angrenzenden Scheitelpunkts, d. h. eine Clique nicht erweitert werden kann, die exklusiv innerhalb des Scheitelpunkt-Satzes einer größeren Clique nicht besteht.
    Eine Clique in einem ungerichteten Graphen G = (V, E) ist eine Teilmenge des Scheitelpunkt-Satz-C  V, solch, dass für alle zwei Scheitelpunkte in C, dort ein Rand besteht, der die zwei verbindet (anschließt). Das ist äquivalent, dass der durch C veranlasste Subgraph abgeschlossen ist (in einigen Fällen, kann sich der Begriff (Frist) Clique auch auf den Subgraphen beziehen).
__
Maximaler vollständiger Untergraph > maximale Clique.
__
Maximum-Likelihood-Methode. Von R. A. Fisher 1921 entwickeltes Verfahren zur Schätzung von Wahrscheinlichkeiten. Es wählt diejenige aus, die unter bestimmten Annahmen die größte Wahrscheinlichkeit für ein vorliegendes Resultat hat.
    Wallis  & Roberts (dt. 1969), S. 371:

"14.2.1.2 Maximale Mutmaßlichkeit. Das Prinzip, unter dem Punkt-Schätzfunktionen im allgemeinen ausgewählt werden, wird als das Prinzip der maximalen Mutmaßlichkeit {maximum likelihood) bezeichnet. Es handelt sich dabei um einen Gedanken, den Sir Ronald Fisher erstmalig im Jahre 1921 behandelte (vgl. Abschn. 1.4.2). Man betrachtet jeden möglichen Wert, den der Parameter haben könnte, und errechnet für jeden Wert die Wahrscheinlichkeit, daß die jeweilige spezifische Stichprobe eingetreten wäre, wenn dies der richtige Wert des Parameters wäre. Von allen möglichen Werten des Parameters wird dann derjenige als Schätzung ausgewählt, für den die Wahrscheinlichkeit der tatsächlichen Beobachtungen die größte ist. Formeln, die solche Schätzungen angeben, werden als Schätzfunktionen der maximalen Mutmaßlichkeit {maximum likelihood estimators) bezeichnet. ... .... ...
.    Eine Warnung: Der Grund für die Schätzung von P als 0,65 ist nicht die Tatsache, daß, wenn P = 0,65, das wahrscheinlichste Stichproben-Resultat p =0,65 wäre; in der Tat ist p — 0,65 das wahrscheinlichste Ergebnis in einer Stichprobe von 20 für jedes P zwischen 0,619 und 0,667. Der Grund für die Schätzung von P als 0,65 ist der, daß eine Stichprobe mit p = 0,65 wahrscheinlicher ist, wenn P = 0,65, als wenn P irgendeinen anderen Wert hat."
__
Median. Der Wert, der eine Messwert-Reihe in zwei Hälften teilt, z. B. 3 in:  1, 1, 2, 2, 3,  3,  3, 3, 4, 5, 5.
__
Mengenlehre. Nach der Mengenlehre besteht die Messwert-Reihe  "1, 1, 2, 2, 3,  3,  3, 3, 4, 5, 5"  aus 5 Elementen.
__
Merkmalsraum, relevanter. [1,]
__
Messen, Messung. Genau beschriebenes und damit prinzipiell wiederholbares und überprüfbares Verfahren zur Feststellung einer Ausprägung. Eine Messung ist lehr- und lernbar. Es ist sehr zweifelhaft, ob in der Erlebnis-Psychologie echte Messungen möglich sind.
__
Messfehler. Als allgemeiner Erfahrungssatz gilt: jede Messung ist mit einem Fehler behaftet, so das für den Messwert x, den gedachten wahren Wert w und den Messfehler f gilt: x = w + f.  Da der wahre Wert eine gedachte Konstruktion und nie bekannt ist, muss er in praxi geschätzt werden. Diesen Näherungswert nennt man auch den "richtigen" Wert r und damit gilt dann: x = r + f. Man nimmt hierfür oft den arithmetischen Mittelwert.  [> Fehlerarten.]
__
Messtheorie
Bezeichnung für die psychologische Messtheorie. Sie erforscht die Grundlagen des Messens in der Psychologie. Die "Messtheorie" der  Mathematik heißt Maßtheorie. In der Naturwissenschaft und Technik gilt die Norm DIN 1319 [W].
    Orth (1974) führt S. 9 aus:
"Das Messen ist sowohl historisch als auch methodisch gesehen eine der Grundlagen der Wissenschaft. Ohne die Durchführung exakter Messungen läßt sich die Entwicklung der empirischen Wissenschaften, insbesondere der Naturwissenschaften, nicht vorstellen. Seit sich die Psychologie, wie auch andere Sozialwissenschaften, mehr und mehr als empirische Wissenschaft versteht, stellt sich auch hier die Frage der Entwicklung geeigneter Meßmethoden. Es erwies sich jedoch sehr bald, daß die Messung psychischer Eigenschaften, wie z. B. Empfindungen, Einstellungen, Intelligenz oder Angst, zumindest schwieriger ist als die physikalischer Eigenschaften, wie z. B. Länge, Zeit, Gewicht oder elektrischer Widerstand. Es wurde sogar die Auffassung vertreten, daß das Messen in der Psychologie prinzipiell nicht möglich sei, zumindest nicht in dem Sinne wie beispielsweise in der Physik.
Vor diesem Hintergrund zeichneten sich zwei Fragen von grundlegender Bedeutung für die Psychologie ab:
1. Ist die Messung psychischer Eigenschaften prinzipiell möglich, und zwar in einem mit dem Messen in den Naturwissenschaften zu vereinbarenden Sinne?
2. Falls dies der Fall ist, wie können psychische Eigenschaften gemessen werden?
Der Klärung dieser sowie weiterer, hiermit zusammenhängender Fragen widmeten sich — in verstärktem Maße etwa seit den fünfziger Jahren — vor allem Wissenschaftstheoretiker, Logiker, Mathematiker, Wirtschaftswissenschaftler und Psychologen. Das Forschungsgebiet, das sich aus den Bemühungen um eine Antwort auf diese Fragen entwickelte, bezeichnen wir heute als Theorie des Messens oder als Meßtheorie.
Die Meßtheorie erforscht mit mathematischen Methoden die Grundlagen des Messens und gibt so die Voraussetzungen für die Meßbarkeit von Eigenschaften an. Ihre Ergebnisse zeigen, daß auch psychische Eigenschaften grundsätzlich meßbar sind, und zwar in demselben Sinne, wie es physikalische sind. Die theoretischen Untersuchungen der Meßtheorie führten darüber hinaus zur Entwicklung praktischer Meßverfahren, die in den Sozialwissenschaften neben die länger bekannten Skalierungsverfahren und Tests treten und neue Möglichkeiten der Messung insbesondere auch psychischer Eigenschaften bieten."
Die Grundprobleme des psychologischen Messens werden in vier Bereichen erörtert: Bedeutsamkeitsproblem, Eindeutigkeitsproblem, Repräsentationsproblem, Skalierungsproblem. Trotz eines gewaltigen formalen Apparates:
  • Krantz, D. H., Luce, R. D., Suppes, P. & Tversky, A. (1971). Foundations of measurement. Vol. 1 New York: Academic Press. [Taschenbuch 2006]
  • Suppes, Patrick, Krantz, David H., Luce, Duncan R. & Tversky, Amos (1989) Foundations of Measurement, Vol. 2 Geometrical, Threshold, and Probabilistic Representations. New York: Academic Press. [Taschenbuch 2006]
  • Luce, Duncan R.; Krantz, David H.; Suppes, Patrick & Tversky, Amos (1990) Foundations of Measurement, Vol. 3 Representation, Axiomatization and Invariance. New York: Academic Press. [Taschenbuch 2006]
  • sieht es mit der psychologischen Mess-Praxis immer noch sehr düster aus (August 2018). Die  grundlegenden Probleme der Psychologie  scheinen nicht begriffen. Vgl. hierzu auch die Kritik von Jaenecke, Peter  (10.12.07/28.12.07/04.08.14) Einführung in die Messtheorie. PDF Online.
    __
    Messwert. Zahlenwert.
    __
    Messungen per fiat  Orth, B. (1974, S. 41). Einführung in die Theorie des Messens. Stuttgart. Kohlhammer: "Das über die Skalierungsverfahren Gesagte gilt sinngemäß auch für psychologische Tests. Diese sind auch 'Meßverfahren per fiat' genannt worden (Torgerson, 1958; Pfanzagl, 1968; Fischer, 1970), da sie auf dem Glauben beruhen, daß die jeweilige Eigenschaft meßbar sei, und daß Tests zur Messung auf Intervallskalenniveau führten. Ein weiterer Unterschied zwischen Meßstrukturen und Tests besteht darin, daß bei letzteren nicht ein empirisches Relativ in ein numerisches, sondern ein numerisches Relativ in ein anderes numerisches Relativ abgebildet wird. Es werden (numerische) Testrohwerte in numerische Testwerte abgebildet bzw. transformiert. Für eine Messung mit Hilfe von Tests auf Intervallskalenniveau sind die meßtheoretischen Grundlagen erst noch zu entwickeln. ..."
    __
    Methode Methodisch vorgehen heißt, Schritt für Schritt, von Anfang bis Ende, Wege und Mittel zum (Erkenntnis-) Ziel angeben. Zum allgemeinen Methodenbegriff gehört wenigstens ein Ziel, ein Mittel, um dieses Ziel zu erreichen und ein Weg bzw. eine Anwendungsregel für die Mittel. In der Psychopathologie und Psychotherapie gibt es zwei Hauptziele: Erkenntnis-Ziele (Diagnostik), Veränderungs-Ziele (Behandlung).
    __
    Metrik  > W: Metrischer Raum.
    Eine Metrik definiert Abstandsmaße, wovon es verschiedene geben kann (euklidische, nicht-euklidische, ...)
    __
    Minimum. Der kleinste Wert in einer Reihe, z. B. 1 in: 1, 1, 2, 2, 3,  3,  3, 3, 4, 5, 5.
    __
    Mikrozensus. Stichprobenauswahlverfahren.  [W]
    __
    Missing Data (fehlende Daten bei Erhebungen)
    Bei multivariaten Verarbeitung kann es zu erheblichen Störungen kommen, wenn Missing Data und keine angemessenen Lösungen vorliegen. Werden unvollständige Datensätze paarweise aus der Korrelationsberechnung ausgeschlossen, kommt es zu einer Verzerrung der Winkel aufgrund verschieden grožer Stichumfänge. Formal äquivalent und daher ebenso problematisch sind Metaanalytische Stichproben-Mischungen mit unterschiedlichen Umfängen N. Sponsel & Hain (1994, Kap. 3.2.4, Hain 6.5.4) haben den Auswirkungen von Missing Data Arbeiten vorgelegt. Sponsel hat an zahlreichen Matrizenanalysen gezeigt, welche Entgleisungen auftreten können, wenn mit falschen Missing Data Lösungen gearbeitet wird. Viele Statistikprogrammpakete bieten seit Jahrzehnten Missing-Data-Problemlösungen an (z.B. BMDP 1983: SAS 1983; SPSS 1975; SPSS 9 1983), aktuell Holm/ALMO 2020 "plausible values".
        Aktuell kann man bei Coronazahlen der epidemiologischen Statistiker täglich viele ungelöste und nicht einmal ordentlich dokumentierte Missing Data beobachten.
    Lit-MisDat (Auswahl):
    Dodge,Y. (1985) Analysis of experiments with missing data. Wiley.
    Enders, Craig K. (2010) Applied Missing Data Analysis.  Guilford Press
    Graham, John W. (2012)  Missing Data. Springer
    Little, Roderick J. A.; Rubin, Donald B. (2002), Statistical Analysis with Missing Data (2nd ed.). Wiley.
    Lösel,F.,  Wüstendörfer, W. (1974)  Zum Problem unvollständiger Datenmatrizen in der empirischen Sozialforschung, Kölner Zeitschrift für Soziologie und  Sozialpsychologie 26, 1974, 342-357
    Mirkes, E.M.; Coats, T.J.; Levesley, J.; Gorban, A.N. (2016). Handling missing data in large healthcare dataset: A case study of unknown trauma outcomes. Computers in Biology and Medicine. 75: 203–216. arXiv:1604.00627.
    Raghunathan, Trivellore (2016) Missing Data Analysis in Practice. Chapman & Hall
    __
    Mittel  um Ziele zu erreichen. Wichtiger allgemeiner und wissenschaftlicher Grundbegriff, der zum Methodenbegriff gehört. Die sprachliche Wendung Mittel zum Zweck bringt es ganz gut auf den Punkt.
    __
    Mittelwerte
     
    Mittelwert ohne nähere Angabe. Meist ist der arithmetische gemeint und oft auch so erkennbar. Sicher wäre es, genau zu anzugeben, von welchem man spricht. Most (1955, S. 8, § 12: S. 57-65) führt folgende Mittelwerte an: "I. Errechnete Mittelwerte: 1. und 2. Arithmetische Mittel. 3. und 4. Geometrische Mittel. 5. Harmonisches Mittel. 6. Quadratisches Mittel. 7. Antiharmonisches Mittel. II. Mittelwerte der Lage: 1. Zentralwert. 2. Häufigster Wert. 3. Schwerster Wert. 4. Scheidewert." Lit: > Jecklin; [W]
    __
    Mittelwerte und Durchschnitte
    Informations- und Lernseite des statistischen Bundesamtes zum Thema "Mittelwerte und Durchschnitte".

    Mittelwert, arithmetischer. Summe aller Werte dividiert durch die Anzahl. [W]
    __
    Mittelwert, geometrischer.
    Geometrisches Mittel (n-te Wurzel des Produkts der n Zahlen; Anwendung Wachstumsraten, durchschnittliche Verzinsung bei jährlich unterschiedlichen Zinssätzen. Mathebibel: "Das geometrische Mittel (im Gegensatz zum arithmetischen Mittel) dient zur Messung des Durchschnitts einer prozentualen Veränderung. Aus diesem Grund sagt man zum geometrischen Mittel auch durchschnittliche Veränderungsrate.")
    __
    Mittelwert, harmonischer. [W]
    Besonders geeignet für Mittelwerte bei Verhältniszahlen (z.B. von Geschwindigkeiten: v = s/t). [W]
    Harmonisches Mittel (Anzahl der Werte durch die Summe der Kehrwerte der Werte; Anwendung Geschwindigkeiten. Mathebibel: "Das harmonische Mittel kommt meist dann zum Einsatz, wenn der Mittelwert von Verhältniszahlen gesucht ist. Eine Verhältniszahl ist als Quotient zweier statistischer Größen definiert.")

    __
    Modalwert Der häufigste Wert in einer Reihe, z. B. 3 in:  1, 1, 2, 2, 3, 3, 3, 3, 4, 5, 5.
    __
    Modell  Wichtiger, nützlicher aber vieldeutiger wissenschaftlicher Grundbegriff. 1) Nachbildung, künstliche Kopie von etwas Bestehendem, z.B. Modellauto, Eiffelturm, Gehirn, Landkarte. 2) Konstruktion für einen Sachverhalt zu seinem besseren Verständnis, zur Erklärung und Vorhersage, Theorie, z.B. Urnenmodell der Wahrscheinlichkeit, Messmodelle. 3a) Isomorphie zwischen zwei Repräsentationen. 3b) In der Mathematik auch die konkrete Realisation einer abstrakten Theorie. Die Vorstellung, im Ganzen oder in Teilen, von Bild (Original) und Abbild (Modell) trifft es ganz allgemein. Zusammenhänge zwischen Begriffen können graphisch dargestellt werden: Modell des Zusammenhanges. Skizzen, Graphiken, Fotos oder 3D Darstellungen können als Modelle aufgefasst werden. Ein Modell der Denkprozesse bildet nach, wie Denken psychologisch tatsächlich abläuft. Ein Handlungs-Modell erklärt Entwicklung, Entscheidung, Entschluss und Ausführung einer Handlung. Modelle stehen oft auch am Anfang der Theorienbildung als heuristische Konstruktionen. Besonders wertvoll kann an Modellen sein, dass sie zu Präzisierungen zwingen, Stärken und Schwächen treten klarer und fassbarer hervor.
    __
    Moderatorvariable
    Eine Variable V, die über eine andere Variable und mit ihr verbundene A auf eine Variable B wirkt, z.B. auch im klassischen Fall einer Scheinkorrelation (Geburtenrate und Anzahl der Storchennester)
    __
    Moment. Sammelbezeichnung oder Klassenbegriff für die verschiedenen statistischen Kennwerte oder Parameter einer Verteilung:  [W]. 1. Moment Erwartungwert (Mittelwert), 2. Moment Varianz, 3. Moment Schiefe, 4, Moment Kurtosis (Exzess).
    __
    Morbidität. Unklarer medizinstatistischer, epidemiologischer Begriff. 1) Gesundheitsbrockhaus 1990: Gibt die Häufigkeit einer Erkrankung pro 1000 oder 10.000 für ein Jahr oder einen anderen Zeitraum an. 2) Grundmann, E. (1994, Hrsg.; S.4-5): „Die M. ist die Zahl einer bestimmten Erkrankung in einer bestimmten Bevölkerungsgruppe in einem bestimmten Zeitraum (meist einem Jahr). Sie berechnet sich nach der Formel: Mz = (Erkrankungszahl x 10 000) / Bevölkerungszahl“. In dieser Formel fehlen die Einheiten der Zeit und die soziologische Spezifikation. 3) Nach Renner, D. (6.A. 1990, S. 24): „M. - Anzahl an einer bestimmten Krankheit leidender Personen per Gesamtbevölkerung in einem bestimmten Beobachtungszeitraum.“ Nach diesem Autor wird M. auch synonym mit Neuerkrankungsrate (> Inzidenz) verwendet. Die Inzidenz wird von Schaefer & Blohmke (1978, S.111) wiederum der > Prävalenz gleichgesetzt.
    __
    Mortalität. Medizinstatistischer, epidemiologischer Begriff, der die Sterblichkeit einer Krankheit bezogen auf die Gesamtzahl der Lebenden eines Jahrganges pro 10.000 oder 100.000 angibt im Unterschied zur > Letalität, die das Verhältnis der an einer Krankheit Gestorbenen in Beziehung zur Anzahl der Erkrankten angibt.
    __
    Multidimensionale Skalierung
    "Multidimensionale Skalierung (MDS) umfasst eine Gruppe von  Skalierungsmethoden, die Messungen von Ähnlichkeiten bzw. Unähnlichkeiten zwischen Paaren von Objekten als Distanzen zwischen Punkten in einem niedrigen multidimensionalen Raum wiedergibt (Borgi Groenen 2005, S. 3)." Quelle S. 153: Rohrlack, Christian () Multidimensionale Skalierung. In (153-173) Albers, Sönke; Klapper, Daniel ; Konradt, Udo; Walter , Achim & Wolf, Joachim (2009,  Hrsg.)  Methodik der empirischen Forschung 3.,  überarbeitete und erweiterte Auflage. Wiesbaden: Gabler.
    __
    Multikollinearität. In einer Tabelle (Matrix) gibt es mindestens 2 Kollinearitäten (vergleichbarer Datensätze, also aus der gleichen Stichprobe oder Population mit jeweils gleicher Anzahl n).
    __
    Nebenbedingung > Bedingung.
    __
    Non-parametrische Statistik. Nicht-parametrische ist im Gegensatz zur parametrischen Statistik voraussetzungsarm und mehr datenangemessen.  Altmeister Siegel schreibt (dt. 1976, S. 2f): "Im Lauf der Entwicklung der modernen statistischen Methoden konstruierte man zunächst Verfahren des statistischen Schließens, die sehr viele Annahmen über die Art der Population machten, aus der die Stichprobe gezogen wurde. Da die Populationswerte "Parameter" sind, nennt man diese statistischen Verfahren parametrisch. Eine Technik des Schließens kann z.B. auf der Annahme beruhen, daß die Daten aus einer normalverteilten Population stammen. Oder sie kann auf der Annahme beruhen, daß zwei Datenbündel aus Populationen erhoben wurden, die dieselbe Varianz (a2) oder Streuung der Daten aufweisen. Diese Verfahren führen zu eingeschränkten Schlußfolgerungen, z.B. 'Wenn die Annahmen über die Art der Verteilung der Population(en) gültig sind, läßt sich daraus schließen, daß... '.
        Inzwischen sind eine große Anzahl von Verfahren des statistischen Schließens entwickelt worden, die ohne die zahlreichen oder strengen Annahmen über Parameter auskommen. Diese neueren "verteilungsfreien1 oder nicht-parametrischen Verfahren führen zu Schlüssen, die mit weniger Einschränkungen verbunden sind. Wenn wir eines davon anwenden, so können wir etwa sagen: "Ungeachtet der Verteilungsform der Population(en) können wir folgern, daß...". In diesem Buch werden wir uns mit diesen neueren Verfahren beschäftigen.
        Einige nicht-parametrische Verfahren werden oft "Rang-Tests" oder "Ordinal-Tests" genannt, und diese Bezeichnungen lassen noch andere Unterschiede zu parametrischen Tests erkennen. Bei der Berechnung parametrischer Tests addieren, multiplizieren, und dividieren wir die Werte aus den einzelnen Stichproben, Führt man diese Rechenarten auch mit Daten durch, die eigentlich nicht numerisch sind, so werden diese verzerrt, und die aus dem Test gezogenen Schlußfolgerungen sind nicht mehr zulässig. Man ist also in der Anwendung parametrischer Verfahren auf Daten beschränkt, die in numerischer Form vorliegen. Dagegen gehen viele nicht-parametrische Tests von der Rangordnung der Daten und nicht von deren 'numerischem' Wert aus, und einige Tests lassen sich sogar auf Daten anwenden, die nicht einmal eine Rangordnung zulassen, d.h. die lediglich klassifiziert sind. Während der parametrische Test etwa die Differenz der arithmetischen Mittel zweier Datenreihen untersucht, geht es im äquivalenten nicht-parametrischen Test um den Unterschied zwischen den Medianwerten. Die Berechnung des arithmetischen Mittelwertes erfolgt über arithmetische Operationen (Addition und anschließend Division), die Bestimmung des Medians geschieht durch Zählen. Die Vorteile von Rangstatistiken für Daten aus den Verhaltenswissenschaften (deren Daten nur scheinbar 'numerisch' im strengen Sinne sind) liegen auf der Hand. Wir werden diesen Punkt in Kap. 3 ausführlicher behandeln, wo parametrische und nicht-parametrische Tests miteinander verglichen werden."
    __
    Norm. Bezugs- oder Vergleichgröße. Vieldeutiger Begriff in Wissenschaft und Leben.
    __
    Normalverteilung. Gaußsche Glockenkurve [1, 2, W, ]. Wichtigste Verteilung der mathematischen Statistik. Häufung der Werte in der Mitte und von da aus in der Häufigkeit abnehmend zu den Rändern hin.
    Zur Warnung (Grimm 1960, S. 165).
    "Die Erfahrung zeigt, daß eine ausgesprochene Normalverteilung in der Natur nur selten vorkommt. Garry (1947) schreibt sogar: 'Die Normalität ist ein Mythos, es lag nie Normalverteilung vor, und sie wird nie vorliegen.
    Grimms Behauptung scheint überzogen.
    __
    Normalbedingungen > Normbedingungen, > Standardbedingungen.
    Viele Aussagen gelten nur relativ zu bestimmten Bedingungen. Mit Normalbedingungen sind durchschnittliche, übliche oder gewöhnlich Bedingungen gemeint, wobei diese Begriff selbst auch erklärungsbedürftig sind. Liegen genaue und klar Bedingungen vor, für die eine Aussage gelten soll, kann man auch von  Normbedingung  oder  Standardbedingung  sprechen.
    __
    Normbedingung  > Normalbedingungen > Standardbedingungen.
    Hier werden genaue und klar Bedingungen formuliert, unter denen eine Aussage gelten soll. Es ist eine Regel des  wissenschaftlich gesunden Menschenverstandes, dass Aussagen nur relativ zu bestimmten und auszuweisenden Bedingungen gelten. Während Mathematik, Naturwissenschaft und Technik hier ein hohes Niveau erreicht haben, sieht es in den Sozial-, Psycho- und Geisteswissenschaften unverantwortlich schlecht aus (Stand 25.07.2018).
    __
    Normalwert. > Referenzwert.
    __
    Normwerte. Werte, die nach einem bestimmten, nachvollzieh- und prüfbaren Verfahren, gewonnen und berechnet werden. In Straube (1988, Hrsg.), S.9 heißt es: "Der Ausdruck „Normwert" steht hier synonym für Normal-, Richt- oder Referenzwert, wobei sich letztere Bezeichnung durchzusetzen scheint. Es wird nachdrücklich darauf hingewiesen, daß alle Normwertangaben die intraindividuelle Situation des Gesunden und des Kranken nicht berücksichtigen können. Weiterhin muß der Arzt auf tages-, monats- und jahreszeitliche Schwankungen Rücksicht nehmen."
        Hier noch eine Tabelle aus Lienert (1969, 3. A.), S. 337:
    _

    __
    Nullhypothese [1, ] Streng formal besagt die Nullhypothese Kennwert-1  = Kennwert-2 oder x = y, wenn die Irrtumswahrscheinlichkeit einen Wert < Signifikanzniveau alpha hat unter der Voraussetzung, dass x = y gilt. Die häufigste und übliche, aber keineswegs zwingende Deutung ist: Es gibt keinen Unterschied zwischen den Kennwerten. Tatsächlich kann jede spezifizierte Hypothese zur Nullhypothese gemacht werden. Die Alternativhypothese, sofern sie spezifiziert ist, lässt sich natürlich auch berechnen. Vom praktischen Standpunkt wählt man die Hypothese zur Nullhypothese, deren Verwerfung besonders interessiert. Grundsätzlich ist zu fordern, dass alle relevanten Annahmen und Voraussetzungen, die in die Prüfung eingehen mitgeteilt und in einer Hypothesendiskussion kritisch erörtert werden.
        Bortz (1985, S. 144) führt aus: "Die statistische Nullhypothese (H0) folgt ebenfalls zwingend aus der statistischen Alternativhypothese (H1). Bezogen auf den Vergleich zweier Mittelwerte sind die folgenden drei Hypothesenpaare denkbar:
    H1 µ0 > µ1 H0: µ0 <= µ1
     H1 µ0 < µ1 H0: µ0 >= µ1
    H1 µ0 =|= µ1 H0: µ0 = µ1

    In ähnlicher Weise formuliert man statistische Nullhypothesen zu statistischen Alternativhypothesen, die sich auf Zusammenhänge beziehen (z.B. H1: rho > 0, H0:  rho <= 0).
        Die Nullhypothese stellt in der klassischen Prüfstatistik die Basis dar, von der aus entschieden wird, ob die Alternativhypothese akzeptiert werden kann oder nicht. Nur wenn die Realität „praktisch" nicht mit der Nullhypothese zu erklären ist, darf sie zugunsten der neuen Alternativhypothese verworfen werden."
    __
    Numerologie. Nicht prüf- oder wiederholbare Methode, spezielle Bedeutungen von Zahlen zu erkennen. Auch in der modernen Wissenschaft sehr verbreitet, z. B. in der Faktorenanalyse oder Signifikanzstatistik.
    __
    Nutzen: mehr oder - meist - minder intersubjektive Wertzuweisung über den Gebrauchswert von Sachverhalten. Der Nutzen spielt eine große Rolle für die meisten Menschen in fast allen Lebensbereichen, aber auch in der Wissenschaft, besonders in der Ökonomie (Grenznutzentheorie) und Psychologie: Nützlich erscheint, was Bedürfnisse, Wünsche und Interessen befriedigt.
    __
    Objektivität := die Messung soll nicht davon abhängen, wer mißt. Allgemeiner: eine Feststellung über einen Sachverhalt heißt objektiv, wenn sie unabhängig vom Feststeller ist, also andere das Gleiche feststellen.
    __
    Objektivität, spezifische := Begriff des Rasch-Modells, wonach die Messergebnisse (Relationen der Messobjekte) nicht vom Messinstrument (Test, Skalierungsverfahren) abhängen darf (>Relationentreue).
    __
    Odds-Ratio. Das Odds Ratio gibt, um wieviel größer die Chance zu erkranken in der Gruppe mit Risikofaktor ist (verglichen mit der Gruppe ohne Risikofaktor). Das Odds Ratio nimmt Werte zwischen 0 und Unendlich an. Ein Wert von 1 bedeutet ein gleiches Chancenverhältnis. [W]
    __
    Ökonomie (Nutzen, Utilität). Kosten, Aufwand, Nutzen, Preis-Leistungs-Verhältnis.
    __
    Operationalisierung
    __
    Operationscharakteristik (OCR). [W]
    __
    Orthosprache  Methodisch aufgebaute Wissenschaftssprache.
    __
    Panelstudien

    Demoskopischer und soziologischer Begriff für wiederholte Erhebungen mit dem gleichen Variablensatz an gleichen Stichproben. Arminger, Gerhard (1976). Anlage und Auswertung von Paneluntersuchungen. In (134-235) Holm, Kurt (1976) Die Befragung 4. München: Francke.
    __
    Paradigma. Charakteristische, typische und grundlegende Situation. Zweiwertiges Aussageparadima: eine Aussage ist wahr oder falsch. Dreiwertiges Aussageparadigma: Eine Aussage ist wahr, falsch oder nicht bestimmbar. > Statistisches Paradigma.
    __
    Parameter: kennzeichnende, charakteristische Größe, z.B. Mittelwert, Varianz, Minimum, Maximum, Spanne, Verteilung.
    __
    Parameter-Konstanz: kennzeichnende Größe, die für bestimmte Bedingungen gleich bleibt, z.B. Mittelwert, Varianz.
    __
    parametrische Verfahren. Sie gehen von bestimmten Modellannahmen, z. B. Normalverteilung oder Parameterkonstanz, aus.
    __
    Paranormale Fähigkeiten testen. [PDF, S. 376] [GWUP] [Randi]
    __
    Pfadanalyse
    __
    Plausibel, Plausibiliät
    Ein Sachverhalt1 ist in dem Maße plausibel2 (pl), je stärker gewichtete2 Gründe1 G+  für und je schwächer gewichtete2 Gründe1G- gegen ihn angegeben werden können (Quelle). Plausibilitätsformel:
     
     pl+  =  (G+)  /  (G+ +  G- )
    pl-  =  1 - pl+
    __
    Poissonverteilung
    "Diese Verteilung wird dann angewendet, wenn ein Ereignis sehr selten eintritt. Man erhält die Poisson-Verteilung durch
    einen Grenzübergang aus der Binomialverteilung. Ein klassisches Beispiel für eine Poisson-Verteilung (von S. D. Poisson
    1837 eingeführt) ist der Tod von Soldaten durch Pferdehufschlag." Hirz, Helmut (2008), S. 42.
    __
    Polung. negative oder positive Wertzuweisung zu einem Bearbeitungssachverhalt.
    Population: Gesamtheit, Ganzes.
    __
    Population. Grundgesamtheit, die betrachtet wird.
    __
    posteriori
    __
    Power. Auch Macht, Teststärke oder Gütefunktion genannt: Wahrscheinlichkeit dafür, dass die Nullhypothese abgelehnt wird, wenn die Alternativhypothese richtig ist. Power = 1 - b mit b als Fehler 2. Art. [W]. Programm der Uni-Düsseldorf zur Berechnung der Power. Lit: Cohen (1969).
    __
    Power, positiv prädiktive
    __
    Power, negativ prädiktive
    __
    Prävalenz. Epidemiologisch-statistischer Begriff, der das Verhältnis aus Anzahl der Kranken zu einem Stichtag gegenüber den Personen mit Merkmal an diesem Stichtag angibt. Anwendung: an X Erkrankte : Medikamentenanwender.  Beaglehole et al. (1997, S. 30): "Die Prävalenz einer Krankheit ist die Anzahl der Krankheitsfälle in einer definierten Population zu einem bestimmten Zeitpunkt."
    ___
    Praxeologie. Ein Name für lehr- und lernbares, begründetes praktisches Vorgehen nach Wissenschaft, Erfahrungswissen und individuell situativen Gegebenheiten. In den stark idiographisch geprägten Berufen der JuristInnen, Heilfachkundigen und PsychologInnen  müssen wissenschaftliche Ergebnisse auf einen Einzelfall angewendet werden. Das ist ein bislang von den Universitäten sehr stark vernachlässigtes Gebiet, so gibt es m. W. auch keinen Lehrstuhl für idiographische Wissenschaftstheorie und Praxeologie. Hier spielen auch der berüchtigte sog. "gesunde Menschenverstand" und alltägliches Regelwissen wie praktische Vernunft eine große Rolle. > evidenzbasierte Medizin.
    Querverweise:
  • Hake: Statistische Falschschlüsse Gruppe/Einzelfall.
  • Nedopil: Prognosen in der Forensischen Psychiatrie.
  • __
    Produkt-Moment (kleines, großes). Ausdruck aus der Matrixalgebra (z.B. Horst 1963, p. 166-171) im Umfeld multivariater Datenanalyse (z.B. Revenstorf 1980, S.28, 53, 85 ). Sei X eine Matrix, dann wird X'X das kleine (Minor) und XX' gelegentlich das große (Major) Produktmoment genannt. Die Bravais-Pearson Korrelation wird auch als Produkt-Moment-Korrelation bezeichnet. Die Encyclopedia of Statistical Science, 1986, Vol. 7, p. 292 führt aus:


    __
    Prognose.  Wichtiger allgemeiner und wissenschaftlicher Grundbegriff, der bei seriöser Betrachtung eine Theorie voraussetzt, wobei meist Erklären und Vorhersagen zusammenhängt.
    __
    Prozentrang. Prozentsatz derjenigen, die einen so oder so großen Wert erreichen.
    __
    Prüfstatistik. > Signifikanztest. Clauss & Ebner (1970, S. 170) schreiben: "Der gesamten Prüfstatistik liegt demnach folgender Gedanke zugrunde: Dann und nur dann, wenn die Stichproben Ergebnisse liefern, die bei Gültigkeit der Ausgangshypothese unwahrscheinlich sind, verwerfen wir die Hypothese."
    __
    Quantile. Vielheiten, meist in gleiche Klassen zusammengefasst. Quartile und Prozentränge sind Quantile.  (Beispiele hier)
    __
    Quartile. 1. Quartil := erstes Viertel der Stichprobe. 2. Quartil:  Zweites Viertel der Stichprobe. Median := halbiert die Stichprobe, 3. Quartil =: drittes Viertel der Stichprobe.  4. Quartil = letztes Viertel der Stichprobe. Seien 100 Messwerte von 1,2,3, ..., 100 gegeben, dann gehören 1-25 zum ersten Quartil, 26-50 zum zweiten Quartil, 51-75 zum dritten und 76 bis 100 zum vierten Quartil.
    __
    Querschnitts-Statistik, eine Statistik, die über verschiedene Objekte im gleichen Zeitraum erhoben wird, z. B. der arithmetische Mittelwert für den durchschnittlichen Alkoholkonsum junger Frauen zwischen 21 und 25 Jahren in Bayern. > Längsschnitt.
    __
    Randbedingung  > Bedingung.
    __
    Rang, Rangzahlen, Rangtests. Ränge haben nach traditioneller Auffassung nur sog. Ordinalniveau. Mit solchen Größen sind numerische Rechnungen bis auf monotone Transformationen nicht zulässig.  Das wird aber von vielen sog. Rangtests missachtet. Die mathematische Statistik ist hier falsch und unsauber, wenn sie unzulässig addiert, subtrahiert, dividiert, multipliziert, ohne im Einzelfall gezeigt zu haben, dass die metrisch-numerische Handhabung zu den zulässigen ordinalen Operationen äquivalente Ergebnisse liefert.
    __
    RCT randomized controlled trial. Randomisierte kontrollierte Studie. Hier werden die ProbandInnen per Zufall einer Bedingung zugeordnet, um die Fehler zu minimieren. Die Untersuchungsgruppen sollten hierbei "groß" genug sein.
    __
    Referenzwert > wörtlich Bezugswert bzw. Bezugswertbereich,  Normwert, Normalbereichswert in der Medizin  (im Laborbereich gewöhnlich unzulänglich ausgewiesen). In der Psychologie werden z. B. sog. "Normen" bei Intelligenztests meist für Geschlecht, Alters- und Bildungsklassen bestimmt. In der Medizin sind naturgemäß besonders wichtige Kriterien spezielle Erkrankungen und Risiko-, aber auch ökologische Faktoren (wie z. B. Stadt, Land, Abgasbelastung, Sendemasten, Strahlungsbelastung [Elektrosmog], Chemie- oder Atomkraftwerke in der Nähe, oder Berufe, die mit bestimmten Risiken einhergehen, können sehr wichtig sein. Beispielrechnung. Setzt man bei parametrischen statistischen Verfahren eine Mindeststichprobengröße von N=30 an und geht man aus von 2 Geschlechtern, 5 Altersklassen, 3 Schulbildungsgraden, 6 ökologischen Klassen, 27 Gesundheitsfaktoren (3 Bewegungsgrade, 3 Ernährungsgrade, 3 Körperindexgrade), 100 Krankheitsklassen und 10 Risikofaktoren ergibt sich folgende Rechnung: STC [Stichprobencharakteristiken] = 30 * 2 * 5 * 3 * 6 * 27 * 100 * 10 = 48.600.000, d. h. 48,6 Millionen Laborbefunde. Das wären die theoretischen Erfordernisse, wenn jede Stichprobenkombination vertreten sein soll. Es kann natürlich durchaus vorkommen, dass nicht jede Kombination mit 30 Fällen besetzt werden kann, weil sie zu selten vorkommt.
    __
    Regression, Regressionsanalyse. Einfaches lineares Modell nach y = a + b*x. Ein Wert y wird auf einen Wert x zurückgeführt, z.B. das Gewicht auf die Körpergröße. Das geht auch umgekehrt, indem man die Körpergröße auf das Gewicht zurückführt. Als Maß für den Zusammenhang beider Regressionen dient der Korrelationskoeffzient, der sich auch aus der Wurzel des Produktes beider Regressionskoeffzienten (geometrisches Mittel) errechnen lässt. b ist die Steigung und heißt auch beta-Gewicht. Inhaltlich interpretiert gibt b an, in welchem Verhältnis y steigt (fällt), wenn x um eine Einheit steigt (fällt). Im Prinzip gibt es beliebige Regressionsmodelle, letztlich so viele, wie Datenmodelle und Funktionsverläufe, die sie charakterisieren. Das einfache lineare Modell ist also nur eines, wenn auch das wohl meist angewendete. Regressionen bei Wachstumsprozessen werden "linearisiert" durch logarithmieren (Bsp.). Rinne (1995), S. 415f f gibt 7 Voraussetzungen an.
    __
    Relation (Beziehung). Beispiele: größer, kleiner, gleich, auf, unter, gleich alt wie, besser. Grundlegender, aber wegen seiner Abstraktion schwieriger mathematischer Grundbegriff, der seit der Durchsetzung der Mengenlehre auch über diese definiert wird: Eine Relation ist eine Teilmenge der Kreuzmenge (kartesisches Produkt, Paarmenge). Sei A = {Main, Passau, Frankfurt, Donau}, so ist die Kreuzmenge, AxA, numeriert: 1. (Main, Main), 2. (Main, Passau), 3. (Main, Frankfurt), 4. (Main, Donau), 5. (Passau, Main), 6. (Passau, Passau), 7. (Passau, Frankfurt), 8. (Passau, Donau), 9. (Frankfurt, Main), 10. (Frankfurt, Passau), 11. (Frankfurt, Frankfurt), 12. (Frankfurt, Donau), 13. (Donau, Main),  14. (Donau, Passau), 15. (Donau, Frankfurt) und 16. (Donau, Donau). Relationen können hier sein: I. Fluß und Stadt gehören zusammen: 3 und 8. II. Fluß und Stadt gehören nicht zusammen: 2 und 7. III. identische Flüsse: 1 und 16. IV. Identische Städte: 6 und 11. V. Flüsse: 1, 4, 13 und 16. VI. Städte: 1, 3, 5, 6, 7, 9, 10., 11. VII. Identische Namen: 1, 6, 11, 16. VIII. schwebt über: wird von keinem der Paare erfüllt.
    __
    Relationentreue.
    __
    Reliabilität. Messgenauigkeit. In der Psychologie meist - und nicht unproblematisch - über die Korrelation geschätzt.
    __
    Repräsentation. Grundlegender Begriff für die Stichprobenstatistik, schließende Statistik und für die allgemeine, auch alltägliche "Testtheorie". Erheben wir Werte, so sollen diese repräsentativ für ... sein. Bei Laborwerten kann es sehr darauf ankommen, wie die Randbedingungen der Erhebung sind (z. B. Tageszeit, nüchtern). Ist ein Laborwert, z. B. Gamma-GT pathologisch erhöht, so wird man das im allgemeinen beobachten und Messwiederholungen ansetzen. Ein Gamma-GT-Wert ist sozusagen nur eine einzige Stichprobenziehung aus den praktisch unendlich viel anmutenden Möglichkeiten. Eine besondere Bedeutung hat der Begriff noch in der Messtheorie. Das Repräsentationstheorem dort besagt, dass es eine homomorphe Abbildung von einem empirischen Relativ, z. B. drei Hölzchen, in ein numerisches Relativ mit z. B. drei Zahlen so gibt, dass die Beziehungen zwischen den Hölzchen durch die Zahlen repräsentiert werden.
    __
    Repraesentationsproblem
    Ausdruck der psychologischen Messtheorie. Coombs et al, S. 21: "(1) Das Repräsentationsproblem: Können alle Eigenschaften gemessen werden? Wenn nicht, was sind die Bedingungen dafür, daß Meßskalen eingeführt werden können? Was sind die notwendigen (oder hinreichenden) Bedingungen für die Konstruktion zum Beispiel einer Gewicht- oder Nutzenskala?"
    __
    Risiko: Viele Entscheidungen bergen ein Risiko, das oft unbekannt oder nur sehr ungenau zu bestimmen sind. Umso mehr werden dann Vermutungen oder Vorurteile bemüht. Durch die oft sensationsorientierten Medien wird hier viel Schaden angerichtet (> Risikowahrscheinlichkeiten). So beklagt Gigerenzer in seinen Büchern Das Einmaleins der Skepsis (2002) und Risiko (2013) fehlende Risikokompetenz - nicht nur der BürgerInnen.

    Risikokompetenz
    Wichtigerer neuerer Begriff, für den sich Gigerenzer in seinen Büchern Das Einmaleins der Skepsis (2002) und Risiko (2013) sehr einsetzt und dafür plädiert, Risikokompetenz bereits in der Schule zu lehren. Besonders die drei Themen Gesundheitskompetenz, Finanzkompetenz und Digitale Risikokompetenz hält er mit den drei zu vermittelnden Fertigkeiten Statistisches Denken, Faustregeln, Die Psychologie des Risikos für wichtig.

    Risikowahrscheinlichkeiten - immer die absoluten Häufigkeiten einbeziehen
    Gigerenzer warnt in seinen Büchern Das Einmaleins der Skepsis (2002) und Risiko (2013) eindringlich und überzeugend belegt davor, sich von Wahrscheinlichkeiten lenken zu lassen, weil sich viele Menschen schwer tun, verschiedene Wahrscheinlichkeiten gegeneinander angemessen und vernünftig in Beziehung zu setzen. Insbesondere warnt er vor der Angabe relativer Risikowahrscheinlichkeiten und empfiehlt stattdessen, absolute Zahlen zu verwenden. In mehr oder minder regelmäßigen Abständen werden die Frauen aufgeschreckt, wonach das Thromboserisiko durch Einnahmen von Antibabypillen wieder einmal "erschreckend" gestiegen sei. So meldete man in Großbritannien: "Die Antibabypillen der dritten Generation verdoppeln das Thromboserisiko - das heißt, sie erhöhen es um 100 Prozent". Man verschwieg, dass das Thromboserisiko der Vorgängerpille bei 1 : 7000 lag. In der neuen Generation der Antibabypille sei das Risiko auf 2 : 7000 gestiegen. Tatsächlich erhöhte sich rein rechnerisch das relative Risiko um 100% - aber bei welchen Grundraten! Die Folgen dieser "Warnung" waren verheerend (S. 17): "Diese eine Warnung führte im folgenden Jahr in England und Wales zu geschätzten 13000 (!) zusätzlichen Abtreibungen. Doch das Unheil währte länger als ein Jahr. Vor der Meldung gingen die Abtreibungsraten stetig zurück, aber danach kehrte sich dieser Trend um, und die Abtreibungshäufigkeit stieg in den folgenden Jahren wieder an. Die Frauen hatten das Vertrauen in orale Kontrazeptiva verloren, und die Pillenverkäufe gingen stark zurück."
    __
    ROC. Diagramm bei dem auf der Ordinate die Sensitivität und auf der Abszisse 1-Spezifität eingetragen wird. Daraus lässt sich das Verhältnis aller richtig positiven und falsch positiven Zuweisungen ersehen. [W]
    __
    Rohwert := scorierter Bearbeitungswert, dem Bearbeitungswert wird ein Zahlenwert zugeordnet. Wichtiger Grundbegriff für sozialwissenschaftliche Fragestellungen.
    __
    Sachverhalt
    Allgemeiner und wissenschaftlicher Grundbegriff mit folgenden Eigenschaften:

  • seine Existenz kann in Bezug auf eine Welt wahr, falsch, unentscheidbar sein. Wahre und falsche Sachverhalte nennt man auch Tatsachen.
  • er kann mit einer Ausprägungsmöglichkeit (Quantität) ausgestattet sein.
  • die Feststellung seiner Existenz, Dauer oder Ausprägung gilt mit einer gewissen Sicherheit (Fehler).
  • __
    Scheidewert. Der Median der Momentverteilung heißt Scheidewert (oder auch Medial) [PDF]
    __
    Schiefe := Abweichungsmaß von der Symmetrie einer Verteilung; rechtsschief, linksschief.
    __
    Schließende Statistik (Inferenz-Statistik).
    __
    Schwerster Wert. Ausdruck der älteren deutschen Statistik: mit der Häufigkeit gewichteter Modalwert. Nach Most ein Mittelwert der Lage.
    __
    Score :=  Zahlenwert, Ausdruck in der Testpsychologie. Bekommt eine ProbandIn auf die Frage, wie der Bundeskanzler der BRD heißt, z. B. einen "Wertpunkt" für die richtige Antwort, so ist dieser Wertpunkt der Rohwert-Score. > Summenscorefunktion.
    __
    Sensitivität. Ein Maß für die Richtig-Positiv-Zuweisungen.
    Kurz und bündig: sensitiv=richtig positiv erkennt, spezisch=richtig falsch erkannt.


    __
    Sicherheit  wichtiger allgemeiner, wissenschaftlicher und statistischer Begriff, der mehrere Aspekte betreffen kann: Genauigkeit, Gültigkeit für einen Zeitraum,  einer Feststellung, Sicherheit und Güte einer Feststellung. Dahinter steckt die allgemeine und wissenschaftliche Erfahrung, dass unser Handeln fehlerträchtig und nicht immer zuverlässig ist.
    __
    Signifikanz. > Prüfstatistik. Zufallskritische Beurteilung von Annahmen. Der Signifikanztest errechnet, ob unter der Voraussetzung der Richtigkeit der 0-Hypothese (H0: es besteht kein statistischer Unterschied) zwischen beobachteten Werten, die 0-Hypothese bei Zugrundelegung dieser oder jener Irrtumswahrscheinlichkeit (Signifikanzniveau, oft 5%) beibehalten oder zu Gunsten der Alternativhypothese (H1) verworfen werden muss. Es wird also nicht die Wirklichkeit geprüft, sondern unter bestimmten Annahmen wird eine Annahme einer anderen Annahme gegenübergestellt, so dass nicht selten der Eindruck einer virtuellen Scheinwissenschaft entsteht. Sog. "signifikante" Ergebnisse werden auch selten in klaren - hierzulande deutschen - Sätzen interpretiert, woran man schon erkennt, wie schwach und unbedeutend (nicht signifikant ;-) solche Erkenntnisse sind. Der "Signifikanz-Popanz" ist vermutlich eine Folge der - oft genug sehr problematischen - Mathematisierung der Sozialwissenschaften. Viele denken zu Unrecht, dass nur, wo Zahlen und Formeln verwendet werden, schon Wissenschaft vorliegt; nicht selten ist es blosse moderne Numerologie und das Gegenteil von Wissenschaft. Signifikanztest.
    __
    Simpson's Paradoxon
    __
    Skalierung. Messverfahren, Messmethode für Ausprägungen von Merkmalen.
    Man unterscheidet seit  Stevens 1946  vier Skalenniveaus, wobei der Sprung von Ordinal- zu Intervallniveau viel zu groß und der sozialwissenschaftlichen und psychologischen Realität nicht angemessen ist. Es fehlt so etwas wie ein Quasi-Intervallniveau, wofür das Fuzzy-Konzept geeignet erscheint. Das Messproblem ist für die Sozialwissenschaften und Psychologie grundsätzlich nicht gelöst > Messen per fiat.
    __
    Skalierungsproblem
    Ausdruck der psychologischen Messtheorie. Coombs et al, S. 22: "(4) Das Skalierungsproblem: Wie gehen wir bei der eigentlichen Konstruktion von numerischen Skalen vor? Wie verwandeln wir ordinale Information in Aussagen über Zahlen? Und schließlich, wie werden wir mit Meßfehlern fertig, die durch die Ungenauigkeit der Waage oder die Inkonsistenz der Bevorzugungsurteile auf treten können?"
    __
    Spannweite = Maximum - Minimum. Ist die zahlenmäßig kleinste Note in einem Zeugnis 1 und die größte Note eine 4, dann beträgt die Spannweite 4 - 1 = 3. Mit Spannweite kann auch ein Streuungsbereich gemeint sein, z. B. der 1 Sigma Bereich bei der Standard-Normalverteilung umfasst die mittleren 68%, der 2 Sigma-Bereich die mittleren 95,5% und der 3-Sigmabereich 99,7%, also fast die gesamte Verteilung.
    __
    Spezifität. Ein Maß für die Richtig-Negativ-Zuweisungen > Sensitivität. (Richtig-Positive-Zuweisung).
    __
    Spiel.
    __
    Spieltheorie.
    __
    Spurenhypothesen in der Kriminalistik, Kriminologie, Rechtsmedizin und Wissenschaft

    Gigerenzer beschreibt die Fehlermöglichkeiten in der Spurenschlusskette sehr ausführlich. (226-229) am Beispiel des genetischen Fingerabdrucks. Die wichtigen zu berücksichtigenden Begriffe lassen sich der Graphik sehr schön entnehmen.
    Der Urheberfehlschluss setzt falsch gleich: p(nicht Urheber | Übereinstimmung) = p (Übereinstimmung).
    Der Anklägerfehlschluss setzt falsch gleich: p(unschuldig | Übereinstimmung) = p(Übereinstimmung).

    __
    Stabil, Stabilität [numerische]
    __
    Standardabweichung (Symbol: Sigma) . Wichtiges Streuungsmaß. Wurzel aus der Summe der quadrierten Abweichungen der Rohwerte vom Mittelwert durch n-1 dividiert. Ohne die Wurzel ergibt sich die Varianz = quadrierte Standardabweichung.


    Gegeben seien 5 ProbandInnen mit einem BAK von: 0, 0.5, 1, 1.5, 2.0. n = 5. Das arithmetische Mittel = 5/5 = 1.0. Die Standardabweichung = Wurzel {Summe [(0-1)^2 + (0.5-1)^2 + (1-1)^2 + (1.5-1)^2 + (2-1)^2]/5-1} =
    Wurzel {[1 + 0.25 + 0 + 0.25 + 1] / 4 } = Wurzel {2.5/4} =  0.79.
    __
    Standardbedingungen > Normbedingung  > Normalbedingungen.
    Damit sind der Regel Bedingungen gemeint, auf die "man" (Fachausschüsse, Verordnung, Gesetz) sich geeinigt hat, z.B. DIN-Normen. "Geregelt werden die Normalbedingungen in Deutschland in DIN 1343 „Referenzzustand, Normzustand, Normvolumen; Begriffe, Werte“ ...  Standardbedingungen Heute sind neue Normalbedingungen als SATP für „Standard Ambient Temperature and Pressure“ üblich:
        Standardtemperatur T = 298,15 K entsprechend 25 °C (analog zu STP)
        Standarddruck p = 101.300 Pa = 1013 hPa = 101,3 kPa = 1,013 bar. " (Quelle: Chemie.de).
    Eine Übersicht findet man bei Wikipedia unter dem Stichwort "Standardbedingungen".
    __
    Standardnormalverteilung.
    __
    Standardwert. > z-Wert.
    __
    Stanine. Aus standard und nine gebildete Verdichtung an den Rändern der 13 Centil-Normen auf 9 Werte: [> Normwerte]

    __
    Stationär, Stationarität (> Ergodizität) Parameter-Konstanz über die Zeit. Meist selbstverständlich vorausgesetzte, tatsächlich aber eine nicht unproblematische - und meist ungültige - Annahme.
        Gruber (2011), S. 59f: "Unter einem stationären Prozess versteht man einen Prozess, dessen Erwartungswert und Varianz unabhängig von der Zeit, also konstant sind. Die Verteilung ist somit zu jedem (Mess-) Zeitpunkt gleich. Man könnte sagen, dass der Prozess sein Verhalten über die Zeit nicht verändert, sondern zufällig um den wahren Wert des Merkmals schwankt.
        Der einfachste stationäre Prozess ist normalverteiltes Weißes Rauschen. Hier ist die zufällige [<59] Abweichung von Mittelwert normalverteilt mit Varianz Sigma2. Meist nimmt man sogar eine Standardnormalverteilung mit Erwartungswert Null und Varianz Eins an und schreibt dafür epsilont ~ W N (0;Sigma2) (Fan & Yao, 2003)."
        Man differenziert auch eine sog. schwache Stationarität neben einer strikten, drei Bedingungen bei Vermerk S. 283f [Teil PDF]
        Im Lexikon der Geographie von Spektrum [O] wird ausgeführt: "Stationarität, statistische Eigenschaft von zeit-varianten, raum-varianten bzw. raum-zeit-varianten Prozessen (Variablen). Eine zeit-variante Variable X(t) ist stationär, wenn ihre Verteilung zu jedem Zeitpunkt t invariant ist gegenüber t, andernfalls nennt man den Prozess nichtstationär bzw. instationär ( Abb. ). Sind nur die beiden ersten Potenzmomente (arithmetischer Mittelwert und Varianz) invariant gegenüber t, so nennt man die Variable schwach stationär. In ähnlicher Weise kann für raum- bzw. raum-zeit-variante Variablen Stationarität definiert werden. Stationäre Variablen weisen insbesondere keine Trends auf (Trendanalyse). Stationarität ist Voraussetzung zur Messung der Autokorrelation von Variablen und zur Modellierung eines Prozesses durch ein Autoregressivmodell. ..."
        Kiencke, Uwe & Eger, Ralf  (2008) Messtechnik. Systemtheorie für Elektrotechniker. Berlin: Springer. [3., 6.4.4, 6.1.5]
    __
    Statistik. Erfassen und Verarbeitung von Zählungen von bestimmten Merkmalen an bestimmten Merkmalsträgern an bestimmten Orten zu bestimmten Zeiten unter bestimmten Bedingungen. > Deskriptive S., > schließende S.. > Querschnitts-S., > Längsschnitts-S..
    __
    Statistik, deskriptive. Sie beschränkt sich auf die Erfassung und Beschreibung statistischer Kennwerte; nicht selten die ehrlichste und letztlich oft aussagestärkste Form der Statistik.
    __
    Statistik, mathematische. Hochentwickelte, komplizierte, umfangreiche und spezialisierte mathematische Fundierung der Statistik. Für mathematische Laien teilweise sehr schwer bis gar nicht verständlich, besonders was die Anwendung und auch den wirklichen Nutzen bezüglich vieler Annahmen betrifft. Teilweise kann man den Eindruck gewinnen, dass sich die Aussagen nur in virtuellen Welten jenseits unserer Wirklichkeit bewegen. Viele ausgearbeitete Modelle beruhen auf Voraussetzungen, die - besonders in der sozialwissenschaftlichen Forschungspraxis - nicht erfüllt werden (Intervallniveau der Daten, Normalverteilung, Zufallsauswahl, Parameterkonstanz). Eine wirklich konsequente Anwendung der Mathematik würde wahrscheinlich mehr als 90% der Veröffentlichungen gar nicht zulassen.
    __
    Statistikpakete/ Statistikprogramme.
    __
    Statistik, schließende. > Inferenzstatistik. Die schließende Statistik macht Aussagen - teilweise auch sehr fragwürdige oder nichtssagende wie z. B. "signifikant" - über die Bedeutung der deskriptiv erhaltenen Kennwerte mit Hilfe statistischer Modellannahmen.
    __
    Statistische Hypothesen
    Stegmüller (1973), S. 85, behauptet: "Statistische Hypothesen sind, wie bereits früher erwähnt, stets Verteilungshypothesen." Dagegen sprechen die zahlreichen verteilungsfreien statistischen Verfahren. > Statistische Schlussweisen.
    __
    Statistische Kennwerte sind z. B. Median, Quartile, Minimum, Maximum, Spanne; Mittelwert (Typ), Standardabweichung; relative Häufigkeiten, Quantile, Prozentränge, Verteilung und Verteilungskennwerte (z. B. Schiefe, Exzess, Gipfel); Stichprobe, Stichprobenumfang; Population; Erhebungszeitraum; Reliabilität und Validität, Sensitivität und Spezifität; cut-off Werte mit  Erläuterungen und Begründungen. Hinzu kommen besonders bei psychologischen Tests auch abgeleitete Normen wie z. B. z-Werte = (Rohwert - Mittelwert) / Standardabweichung, Stanine oder T-Werte.
    __
    Statistisches Paradigma. In der üblichen, an mathematischer Wahrscheinlichkeitstheorie und Statistik orientierter Einstellung geht man oft  - Ausnahme z.B. voraussetzungsreiche Varianzanalyse - von einem Wahrscheinlichkeitsraum- und Modell aus, in dem die Parameter zufällige Prozesse festgelegt werden. In den empirischen Wissenschaften geht es aber gewöhnlich um systematische Einflüsse, bei denen der Zufalls zwar auch eine Rolle spielt, aber eben nur eine Rolle. Ein empirisch orientiertes statistisches Paradigma muss also von einem grundlegende anderen Ansatz ausgehen, nämlich von der paradigmatischen Grundgleichung E = f( S, Z). Ergebnisse (E) von Beobachtungen oder Experimenten führen zu Hypothesen, wie diese Ergebnisse erklärt werden können. Das grundlegende statistische Paradigma sieht vor, dass es systematische (S) und zufällige (Z) Einflüsse gibt. Es stellt sich für den Statistiker daher immer das Problem, zu entscheiden, welcher Anteil der Ergebnisse auf systematische Einflussgrößen (S) und welcher Anteil auf zufällige Einflüsse (Z) in welchem Wirkungszusammenhang (f)  zurückgehen, also erklärt werden können.
    ___
    Statistische Schlussweisen.
    Dieter Rasch (1978, S. 193-243) beschreibt im 7. Kapitel  "Statistische Schlußweisen" seines Buch folgende:
    7.1  Grundgesamtheit und Stichprobe  (S. 193).
    7.2. Formen des induktiven Schließens (S. 198).
    7.2.1.  Bayessches Vorgehen  (S. 199)
    7.2.2.  Empirisches Bayessches Vorgehen  (S. 201)
    7.2.3.  Fiduzialkonzept (S. 202)
    7.2.4.  Klassisches Vorgehen (Häufigkeitsvorgehen) (S. 203)
    7.3.   Parameterschätzung  (S. 206)
    7.3.1.   Wünschenswerte Eigenschaften von Schätzfunktionen (S. 206)
    7.3.2.   Maximum-Likelihood-Methode  (S. 217)
    7.3.3.   Methode der kleinsten Quadrate   (S. 219)
    7.3.4.   Minimums-Methode  (S. 222)
    7.4.  Konfidenzbereiche  (S. 224)
    7.5.  Statistische Tests  (S.228 )
    7.6.  Beziehungen der Statistik zur Spiel- und Entscheidungstheorie  (S. 238)
    7.6.1.   Spieltheorie  (S. 239)
    7.6.2.   Statistische Entscheidungstheorie (S. 241)
    __
    Stetig. Grundlegender mathematischer Begriff mit der alltagssprachlichen Bedeutung einen fortgesetzten Ununterbrochenen, ohne Lücke. Gegensatz diskret.
    __
    Stichprobe. Teil eines Ganzen. Meist ist angestrebt, dass der Teil das Ganze repräsentieren soll und der Teil fürs Ganze stehen kann (pars pro toto). Hierbei entsteht gewöhnlich ein Stichprobenfehler.
    __
    Stichprobenauswahlverfahren. Der Sinn einer Stichprobe ist die Repräsentativität für eine Gesamtheit.
    __
    Stichproben-Kennwerte. Auch Stichprobencharakteristik. Zu jeder wissenschaftlichen statistischen Normwert-Angabe gehören ihre Bedeutung und die charakteristischen Kennwerte, sowie die Bezugsgruppe, d. h. die Stichprobe, Zusammensetzung der Stichprobe, das Auswahlverfahren und die Population, der Zeitraum der Erhebung, die Größe der Stichprobe und der Population. Genau diese Angaben werden von der Labormedizin so gut wie nie ausgewiesen (Stand 10/ 2007).
    __
    Stichprobenumfang. Anzahl der Messobjekte in der Stichprobe.
    __
    Stochastik. Lehre von den Zufallserscheinungen und ihrer mathematisch-statistischen Behandlung.
    __
    subjektive Wahrscheinlichkeitstheorie. Eine gewisse Nähe gibt es zur Nutzen- und Entscheidungstheorie.
    Vertreter (Auswahl): Bayes, de Finetti, Fishburn, Kleiter, Ramsey, Savage, Wieckmann.
    __
    Summen-Score-Funktion. Die blosse Anzahl im Sinne des positiven Kriteriums bearbeiteter (meist "gelöster") Aufgaben dient als (Ausgangs-) Maß für eine Ausprägung.
    __
    Surveillance (Beobachtung, Überwachung), Ausdruck der Gesundheitsberichterstattung.
    __
    Syllogismus, statistischer. Wenn a aus A mit p1 m zeigt, dann sagt man, a habe mit der Wahrscheinlichkeit p1 das Merkmal m.
    Wenn a aus A mit p1 m zeigt und und a aus B mit p2 m zeigt und p1 ungleich p2 ist, dann gibt zwei unterschiedliche Wahrscheinlichkeitsaussagen bezüglich der Merkmalszuordnung m. Viele WissenschaftstheortietikerInnen sehen hier einen Widerspruch. Ich kann hier aber keinen sehen. Nicht, wenn  A und B verschiedene Stichproben oder schon gar nicht, wenn A und B aus verschiedenen Populationen stammen.
    ___
    Test: Kontrolliertes und fundiertes Prüfverfahren mittels einer Stichprobe und Kennwerten. Stichprobe zur - meist quantitativen - Schätzung eines Sachverhaltes. Ein Fahrtest ist eine Stichprobe aus dem Fahrverhalten einer Person. Aus der Fahrprobe schließt man auf die technische Kraftfahreignung.
    __
    Testen: Kontrolliertes und fundiertes Prüfen mittels einer Stichprobe und Kennwerten
    __
    Testgütekriterien. > Objektivität, > Reliabilität, > Validität, > Utilität, > Ökonomie.
    __
    Teststärke (Power). "Die Teststärke gibt an, mit welcher Wahrscheinlichkeit ein Signifikanztest zugunsten einer spezifischen Alternativhypothese H1 (z. B. „Es gibt einen Unterschied“) entscheidet, falls diese richtig ist. (Die abzulehnende Hypothese wird H0, die Nullhypothese genannt.). Die Teststärke hat den Wert 1-?, wobei ? die Wahrscheinlichkeit bezeichnet, einen Fehler 2. Art zu begehen." [W071027]
    __
    Testtheorie: Theorie zur Konstruktion, Auswertung und Beurteilung von Tests.
    __
    Theorie  allgemeines oder wissenschaftliches sprachliches Modell der Wirklichkeit, das besagt, wie sich die Wirklichkeit unter diesen oder jenen Bedingungen verhält, wie sie funktioniert.
    __
    Transformation. Umwandlung von Werten, z. B. y = ax + b. Hierbei kann es sehr wichtig sein, die Relationentreue zu wahren. Achtung: In der Psychologie gibt es sehr merkwürdige Transformationen, die, bei Lichte betrachtet, Datenfälschungen sind, wenn z. B. nicht normalverteilte Rohwertdaten in Quantile gewandelt und dann so zurückgerechnet werden, als ob sie normalverteilt wären (z. B. fragwürdiges McGall-Verfahren). Das gilt auch für die meisten Faktorenanalysen, weil die Kommunalitätsmatrizen den ursprünglichen Korrelationsmatrizen nicht mehr ähnlich sind.
    __
    Transparenz. Klarheit, Durchsichtigkeit, Verständlichkeit, Nachvollziehbarkeit.
    __
    Trennschärfe  wie gut trennt eine Methode zwischen Merkmalsträgern.
    __
    T-Werte.
    T-Wert-Formel 112 nach Lienert (1969, S. 331)