Beweis und beweisen in der Statistik
„Je planmäßiger die Menschen vorgehen, desto wirksamer
trifft sie der Zufall“
Friedrich Dürrenmatt, hierzu passend Brecht in seiner
Ballade von der Unzulänglichkeit menschlichen Planens (1928):
"Ja mach nur einen Plan! Sei nur ein großes Licht! Und mach
dann noch 'nen zweiten Plan. Gehn tun sie beide nicht."
Blicke über den Zaun zum Auftakt für eine integrative
psychologisch-psychotherapeutische Beweislehre
aus allgemein integrativer psychologisch-psychotherapeutischer
und einheitswissenschaftlicher
Sicht
Einführung, Überblick, Verteilerseite Beweis und beweisen
von Rudolf Sponsel, Erlangen
Hinweis: Wenn nicht ersichtlich werden (Externe Links) in runden und [interne IP-GIPT Links] in eckige Klammern gesetzt, direkte Links im Text auf derselben Seite sind direkt gekennzeichnet. In dieser Übersichtsarbeit wird das Thema im Überblick gesamtheitlich aus einheitswissenschaftlicher Perspektive dargestellt. Im Laufe der Zeit folgen weitere Ausarbeitungen.
Einstieg
Beweis und beweisen in der Statistik
In memoriam: Trau keiner Statistik, die Du nicht selbst
gefälscht hast * Man kann mit Statistik alles beweisen
Diese beiden bösen geflügelten Worte aus Volk und Bildungswelt sagen eigentlich schon alles über den Zustand dieser Wissenschaft, ihrer Vermittelbarkeit und allgemeinen Anerkennung. Das ist sehr schade, weil ich denke, daß Wahrscheinlichkeit und Statistik unverzichtbare und bedeutende Errungenschaften für die Wissenschaft und Gesellschaft sind. Ohne zuverlässige Statistiken, insbesondere langer Zeitreihen über Jahrzehnte und Jahrhunderte kann es keine zuverlässige und vernünftige Analyse, Planung, Erklärung und Prognose geben. Die Amerikaner wissen und können das, Deutschland und Europa können und wissen es leider anscheinend nicht (> Repräsentativität, Transparenz und Kontinuität statistischer Zeitreihen).
Beispiele für praktisch-statistische Fragestellungen:
Genauere
Operationalisierungen (Auswahl):
Klassenbildung nach Merkmalen
Statistiken werden meist über Gruppen gemacht. Eine Gruppe wird
nach einem oder mehreren Merkmalen (z.B. Alter, Geschlecht, Bildung, ...)
gebildet. Man erhält eine Gruppe also über Abstraktion durch
Merkmalsklassifikation.
Grundgesamtheiten
Die betrachtete statistische Grundgesamtheit (Masse, Kollektiv) nennt
man auch Population. Populationen können potentiell unendlich (alle
Menschen, Münzwürfe) oder endlich (alle Magenkrebskranken der
Uniklinik U im Zeitraum t) und mehr oder minder genauer bestimmt oder allgemein
sein. Es ist meist sehr wichtig, sich genau darüber klar zu werden,
über welche Population Aussagen getroffen werden sollen.
Häufigkeiten
Wie oft (h) ereignet sich E (z.B. Vulkanausbrüche, Stürme,
Hitze-/ Trockenperioden/ HIV, Magenkrebs, arbeitslos, Sterbealter usw.)
in einem Zeitraum t und in der soziokulturellen Umgebung u: h(E |
t, u)?
" | t, u" bedeute unter den Bedingungen t und u. Die Beweismethode
ist die Zählung. Nachdem das Zählen sehr aufwendig in Mühe,
Zeit und Kosten werden kann, ergibt sich sofort die nächste Beweisfrage:
Stichproben
Welche Stichprobe ist wie aussagekräftig für eine Schätzung
hs(E | t, u) für He | t, u) in der Population? Darin steckt
auch: Welche repräsentativen Stichprobenziehungen gibt es?
Verteilungen
Je nach der Anzahl und Ausprägung der in eine Verteilung eingehenden
Größen
ergeben sich unterschiedliche Verteilungsdarstellungen und daher unterschiedliche
Modelle für Verteilungen. Modell d-t-a(m) für t Meßzeitpunkte
und a Ausprägungsgrade, z.B. 1=wenig, 2=mittel, 3=viel eines Merkmals
m. Würde z.B. einmal in der Woche gemessen, wie viel es geregnet (m)
hat, so ergäben sich für ein Jahr Vv=3^52 theoretische Verteilungsmöglichkeiten.
Charakteristische
Größen
(Parameter)
Im obigen Beispiel wären charakteristische Parameter z.B. die
Anzahl der 1, 2 und 3 und der Perioden, wenn eine Periode z.B. aus einer
gleichen Anzahl besteht. Führte man einen solchen Versuch über
mehrere Jahre durch, könnte man feststellen, ob es - bezüglich
zu nennender Kriterien - Veränderungen gibt, vielleicht oder auch
nicht.
Fehlerschätzungen
Es gilt als fundamentaler Erfahrungssatz, dass alle empirischen Feststellungen
mit Fehlern behaftet sind, die sich aus vielerlei Quellen zusammensetzen,
ausgleichen, mindern oder verstärken (potenzieren) können. Zu
einer guten empirischen Theorie und Beobachtung, gehört daher auch
die Einbeziehung von Fehlern.
Zur Genauigkeit
der amtlichen Daten zum Wirtschaftswachstum
Pressemitteilung des Statistischen Bundesamtes Nr. 307
vom 3. August 2007
"WIESBADEN - Wie genau sind die Daten der deutschen amtlichen Statistik,
speziell die der Volkswirtschaftlichen Gesamtrechnungen (VGR) zum Wirtschaftswachstum?
Eine Frage, die immer wieder von Wirtschaftsforschern, Analysten und Journalisten
gestellt wird.
Berechnungen zeigen: Die laufenden Revisionen des
Bruttoinlandsprodukts (BIP) liegen in einem der hohen Aktualität angemessenen
und vertretbaren Rahmen. Im internationalen Vergleich gehören die
vierteljährlichen deutschen BIP-Berechnungen sogar zu den besten:
Nach einer Untersuchung der OECD sind die frühen Quartals-BIP-Schätzungen
der Statistikämter aus Deutschland, Frankreich und Großbritannien
die zuverlässigsten und genauesten, dicht gefolgt von denen für
die USA, Kanada und die Niederlande.
Dies ist umso bemerkenswerter, da Deutschland mit
seiner Schnellmeldung zum vierteljährlichen Bruttoinlandsprodukt (BIP)
nach nur 45 Tagen auch in punkto Aktualität zu den Spitzenreitern
in Europa zählt. Seit dem Jahr 2000 hat sich die erste Veröffentlichung
des BIP, unter anderem auf Drängen der Finanzwelt und des Bedarfs
der EZB nach aktuelleren Daten für die Eurozone, von 65 auf nur noch
45 Tage nach Abschluss des Berichtsquartals beschleunigt.
Mit der Veröffentlichung der von den Nutzern
geforderten hochaktuellen Konjunkturdaten befindet sich die amtliche Statistik
immer im Spannungsfeld zwischen Aktualität und Genauigkeit. Um möglichst
frühzeitig aktuelle Zahlen veröffentlichen zu können, werden
die
Ergebnisse auf unvollständiger Datengrundlage berechnet und zum
Teil geschätzt. Diese vorläufigen Ergebnisse werden kontinuierlich
aktualisiert, wenn neue statistische Ausgangsdaten verfügbar sind.
Darauf wird in einem eigenen Qualitätsbericht ausdrücklich hingewiesen."
Tradition
mehrdeutiger und daher unsinniger Auszeichnungen in der bayerischen Statistik
Anmerkung: Der Unsinn der Vieldeutigkeit von Zeichen könnte -
auf jeden Fall in der bayerischen - Statistik sogar Tradition haben. So
wird z.B. im Statistischen Jahrbuch der Stadt Nürnberg von 1930
unten beim Inhaltsverzeichnis ausgeführt:
Ein solches Vorgehen ist wissenschaftlich und praktisch vollkommen abzulehnen. "Nicht vorhanden" ist etwas ganz anders als die Zahl 0 und gehört infolgedessen auch mit einem eigenen Zeichen versehen, und zwar zwingend eineindeutig und nicht "verodert" (wie z.B. in der Zeugenbefragung geboten). Die Zahl 0 ist natürlich kein fehlendes Datum, insbesondere nicht bei den Schulden, und gehört selbstverständlich zwingend als 0 ausgewiesen, wenn der Schuldenstand eben Null ist (das war in Bayern erfreulicherweise im Jahre 2004 bei 76 Gemeinden der Fall). Folgende Fallunterscheidungen könnten hierbei sinnvoll sein:
Beispiel
MD3b: Schätzung des Gesamtschuldenstandes Nürnbergs am 31.3.1929
in Reichsmark
Im folgenden wird dargelegt, wie man den Gesamtschuldenstand
- aus Mark ("Papiermark") und Reichsmark - für 1928/29 schätzen
kann, wenn die einzubeziehenden Geldgrößen klar ausgewiesen
oder Umrechnungsformeln angegeben würden. Zunächst der Sachverhalt,
wie ihn das Statistische Jahrbuch der Stadt Nürnberg 1930
ausweist:
Man sieht hier zwei Werte in der Rubrik "Schuldenstand am Schlusse des Jahres", einmal in "M" ("Papiermark") und der andere in "RM" (Reichsmark), ohne dass erklärt würde, wie nun der Gesamtschuldenstand zu bilden ist. Das ist wenig verständlich, wenn man sich vergegenwärtigt, dass es sich um das Jahrbuch von 1930 handelt, also 6 Jahre nach der Hyperinflation und die tatsächlichen Verrechnungsdaten ja auf jeden Fall in der Kämmerei vorliegen müssen.
Für das Haushaltsjahr 1928/29 wird im Verwaltungsbericht der Stadt Nürnberg, bearbeitet im Statistischen Amt und herausgegeben vom Stadtrat 1929, S. 434 ausgeführt:
Nach diesen Mitteilungen, sollten sich Schätzungen und Umrechnungen
durchführen lassen - wenn man wüsste, wie sich die einzelnen
Finanzgrößen (Rückkauf 339949 RM; Umtausch mit Auslosungsrechten
mit 16916156 RM und Umtausch ohne Auslösungsrechte mit 104375 RM)
zu einander verhalten. Das wird aber leider nicht mitgeteilt, so dass der
Gesamtschuldenstand natürlich davon abhängt, welche Größen
in die Umrechnung "Papiermark" und Reichsmark eingehen. Man kann also rätseln,
welcher drei hier möglich erscheinenden Gesamtschuldenstände
der richtige ist:
(1) Spielten die Umtauschgrößen keine
Rolle. ergäbe sich für die Gesamtschuld am 31.3.1929 folgender
Schätzungsansatz: 140092500 / 336949 = 415.7676681, also ein Verhältnis
von 1 Reichsmark zu gerundet 416 Mark ("Papiermark").
(2) Rechnet man die Umtauschgrößen mit
ein, ergibt sich folgende Umrechnung: 140092500 / (336949 + 16916156 +
104375) = 140092500 / (17357480) = 8.071016069, also ein Verhältnis
von 1 Reichsmark zu gerundet 8 Mark ("Papiermark").
(3) Es zählt nur die Gesamtschuld in Reichsmark,
weil die Ablösen schon in die Summe eingerechnet wurden.
Dies ergibt die möglichen Gesamtschuldenbeträge:
Rechnung (1), die 140 Mill. Papiermark sind 336949 RM wert, ergäbe
88,676999 Millionen RM Gesamtschuld.
Rechnung (2), die 140 Mill. Papiermark sind 17,357480 Mill. Reichsmark
wert, ergäbe 105,697530 Millionen RM Gesamtschuld.
Rechnung (3), es zählt nur der mitgeteilte Schuldenstand in Reichsmark,
es bliebe wie mitgeteilt, 88,340050 Millionen RM Gesamtschuld.
Veränderungen
der Erhebung statistischer Kenngrößen 1973 und 1978 am Beispiel
Verschuldung der Gemeinden
Den folgenden Ausführungen aus "Statistisches Jahrbuch Deutscher
Gemeinden", 66. Jahrgang, 1979, S. 438 kann man entnehmen, dass die Erfassungsmerkmale
der Schulden "eine Anknüpfung an die Berichterstattung bis einschließlich
1973 (61. Jahrgang) nicht mehr zu" lassen. "Im Unterschied zu 1977 sind
die Krankenhäuser nicht mehr in den Gesamtschuldenstandsbeträgen
enthalten. Sie werden wie die Eigenbetriebe nachrichtlich aufgeführt."
Was "beweist"
nun dieser wenig erfreuliche Sachverhalt ?
Nun, anscheinend ist die deutsche Statistik nicht in der Lage oder
motiviert, Sinn und Notwendigkeit vergleichbarer wichtiger sozioökonomischer
Daten, wie z.B. die Verschuldung einer Gemeinde, so zu begreifen, dass
sie die Kontinuität der Daten auch tatsächlich sicher stellen
würden. Das mag auch politisch gewollt sein, um Zusammenhänge
zu verschleiern und Transparenz und Kontinuität zu behindern.
_
Grundannahme-Paradoxie:
Konstanz des Zufalls ?
Hier gibt es zwei Aspekte: 1) daß es so etwas wie Zufallsgesetze
überhaupt gibt; 2) inwiefern diese über die Zeit und Bedingungen
hinweg gelten ("sollen").
In der schließenden und sog. Inferenzstatistik
möchten wir nicht nur Aussagen für den Augenblick treffen, sondern
auch über statistische Regelhaftighaften von Dauer etwas erfahren,
wobei unklar ist, ob oder inwieweit "Zufall", Dauer und Konstanz einander
nicht ausschließen. Wie wollen wir Regelhaftigkeiten von Dauer erkennen,
wenn schon das einzelne Ereignis sehr unsicher ist und eine große
statistische Ereignis-Bandbreite hat?
Mathematik und
Statistik
Das Wesen mathematischer Statistik besteht auf der Basis einen strengen
Theoriegebäudes vielfach darin, die Wahrscheinlichkeit für ein
Modell M1 gegenüber einem Vergleichs- oder Kriteriums-Modell M2 oder
für Annahmen A1 gegenüber anderen Annahmen A2 zu bestimmen. Das
ist einerseits sinnvoll und ergiebig, etwa bei der Frage, ob ein empirischer
Datensatz als normalverteilt angesehen werden darf oder nicht, andererseits
sehr merkwürdig, wenn die Empirie aus einem Vergleich herausfliegt
und nur noch zwei theoretische Modelle oder hypothetische Annahmen [verglichen]
werden: Beispiel: der unselige [Signifikanztest],
der ja, kurz und bündig formuliert, nur eine statistische Aussage
unter der Annahme zuläßt, daß die Nullhypothese
richtig ist. Wir testen mit dem Signifikanztest also ein virtuelles Ergebnis.
Denn die gewöhnliche EmpirikerIn wird meist nicht wissen wollen, was ist, wenn die Nullhypothese richtig wäre?, sondern: ist sie anzunehmen oder nicht? Welche Hypothese ist vorzuziehen, falls eine Entscheidung möglich ist ? |
Eine EmpirikerIn interessiert sich also meist nicht dafür, ob ein
Ergebnis angenommen oder verworfen werden darf, wenn die
Nullhypothese richtig ist, sondern ob sie sie annehmen oder
verwerfen soll. Die Gretchenfrage der empirischen Statistik lautet: Welche
Hypothese ist anzunehmen, die Null- oder die Alternativhypothese. Weiß
man nichts, können im Falle zweiwertiger Logik, beide Hypothesen richtig
oder falsch sein, so daß vier Fälle zu unterscheiden wären.
Das aber macht der Signifikanztest gerade nicht. Signifikanztesten scheint
also ein gigantisches Schautheater und numerologisches Zahlenspiel zu sein,
das nicht nur kaum einen Erkenntniswert hat, sondern vor allem Verwirrung
stiftet. Dafür ist die mathematische Statistik anscheinend bestens
gerüstet. Wissenschaft? Oder Wirrenschaft?
Die großen Probleme in der Wahrscheinlichkeitsrechnung und Statistik liegen weniger in der Theorie als in der Anwendung. Es scheint so, als hätte die mathematische Statistik sich wenig um die sozialwissenschaftlichen Gegebenheiten gekümmert. Die meisten AnwenderInnen können die mathematische Statistik nicht richtig verstehen und die meisten mathematischen StatistikerInnen sind nicht in der Lage, ihre Theorien praktisch sinnvoll zu vermitteln. Theorie und Praxis driften extrem auseinander. Über weite Strecken entsteht der Eindruck, als ob nur theoretische Modell-1/ Annahme-1 gegen theoretisches Modell-2/ Annahme-2 getestet würde, wodurch wir aber nichts über die Wirklichkeit erfahren und wie wir zwischen Hypothesen entscheiden sollten. |
Statistische Paradoxien und Dilemmas nach Stegmüller
Im großen wissenschaftstheoretischen Werk Stegmüllers finden sich mehrere Kapitel oder Abschnitte, die Wahrscheinlichkeit und Statistik
Stegmüller (1973, Teil E), nennt Elf Paradoxien und Dilemmas im
Inhaltsverzeichnis:
Ein schönes Beispiel und ein Fall für eine Plausibilitätsanalyse. Hier liegen zwei ganz unterschiedliche Populationen vor: In (9) die Population der Schweden und die Teilpopulationen der römisch-katholoischen Schweden und damit auch der nicht römisch-katholoischen Schweden; in (10) die Population der Lourdes Pilger und die Teilpopulation der Lourdespilger, die nicht römisch-katholischen Lourdespilger. Für eine genauere statistische Analyse wären wahrscheinlich die tatsächlichen Häufigkeitswerte interessant. Der Focus berichtet in (7) 2008 von ca. 6 Millionen jährlich. Nehmen wir an, davon sind 30.000 Schweden. Damit wären in einem Jahr (30.000/6.000.000)*100 = 0.50% Schweden dabei. Bei einem Anteil von 25% Männern bei den Besuchern wäre es dann noch 0.125%, ein Viertel von 0.50%, womit die Wahrscheinlichkeit für Petersen Lourdes Besuch bestimmt. Wenn weniger als 2% der Schweden römisch-katholisch sind
Können die beiden statistischen Schlussfolgerungen gewichtet werden?
Literatur und Links zu Simpson's Paradox (Auswahl): Linksammlungen: 1, 2, 3,
Was bedeutet
ein korrelativer Zusammenhang?
Was eine Korrelation bedeutet, weiß man nicht genau ['Schein'korrelation],
es ist ein rein statistisch-artifizielles ('künstliches') Zusammenhangsmaß,
das von Erhebung zu Erhebung, und sogar innerhalb einer einzigen Erhebung
von Merkmalsraum zu Merkmalsraum sowohl ganz unterschiedliche Zahlenwerte
als auch Bedeutungen annehmen kann. Empirisch gilt meist der Satz: je nachdem
welche Variablen in die Berechnung einbezogen oder nicht einbezogen werden,
ändern sich die Korrelationskoeffizienten, und zwar möglicherweise
sehr erheblich. Beweis: [Partielle
Korrelationen].
Ungenaue Angaben und Beschreibungen (Voraussetzungen, Hypothesen, Methoden, Ergebnisse, Geltungsbereiche, Aussagekraft/Bedeutung, Verständlichkeit, Nachvollziehbarkeit, ...).
Übertragung
von Gruppenkennwerten auf die Individuen der Gruppe.
Alexandra Hake hat diesem
Fehlschluss zwei Bände gewidmet.
Hauptprinzip
statistischer Interpretation
Werden bei einem statistischen Sachverhalt neue Information
hinzugenommen oder vorhandene vernachlässigt, können sich die
statistischen Sachverhalte verändern und ihre Relationentreue
verlieren.
Diese Grundidee wird auch benutzt für die Interpretation der statistischen Un/Abhängigkeit: Spielt ein statistischer Sachverhalt B für einen statistischen Sachverhalt A keine Rolle, verändert sich mit anderen Worten die Wahrscheinlichkeit für ein Ereignis A nicht, wenn man B mit hinzu nimmt, so spricht man im Hinblick von A und B von unabhängigen Ereignissen. Diese Überlegung kann man auch für die Definition statistischer Relevanz heranziehen. Eine Sachverhalt B ist für einen Sachverhalt A relevant in dem Maße, wie er A beeinflusst, d.h. durch seine An-, Abwesenheit oder so-oder-so-Beschaffenheit (Ausprägung) zu verändern in der Lage ist. Aus unterschiedlichen Voraussetzungen oder Basen, können sich unterschiedliche Folgerungen oder Wirkungen ergeben. So erscheint z.B. die Erwartung, dass sich relative Häufigkeiten additiv wie die zugrunde liegenden absoluten Zahlen verhalten irrational, wenn die Bezugsgrößen nicht gleich sind, was folgende Vierfeldertafel illustriert: A a A+a Rel%
für a bezügl. Z Rel% A bezügl. Z3 Rel% a bezügl.
A+a
|
Ursula
von der Leyen, die Bundesagentur und die verdreht-falsche Kinder Hartz-IV
Statistik [> Politiker]
DER SPIEGEL berichtet in Nr.5, 2012, S. 14 [Online]:
"15,1 Prozent aller Kinder unter 15 Jahren in Deutschland leben von Hartz
IV. Das sind nur 1,5 Prozentpunkte weniger als noch vor fünf Jahren.
Damals wie heute lebt etwa jedes sechste Kind am Rande des Existenzminimums.
Vergangene Woche jedoch freute sich Bundes-arbeitsministerin Ursula von
der Leyen (CDU) über Zahlen der Bundesagentur für Arbeit, nach
denen im Jahr 2011 rund 257000 Kinder weniger von Sozialleistungen lebten
als noch 2006 - ein Rückgang um 13,5 Prozent. Von der Leyen sprach
triumphierend von „sinkender Kinderarmut" und der „Ernte dessen, was wir
in den letzten Jahren an Kraftanstrengungen unternommen haben". Die Statistik
trügt allerdings, denn seit 2006 ist auch die Gesamtzahl der unter
15-Jährigen um 750000 gesunken. Wenn es insgesamt weniger Kinder gibt,
ist es kein Wunder, dass in absoluten Zahlen auch weniger Kinder auf Hartz
IV angewiesen sind. Der Rückgang ist in großen Teilen ein demografischer
Effekt."
Die Bundesagentur ist offenbar daran interessiert,
bewusst unzulänglich bis falsche Zahlen mitzuteilen, um einen Erfolg
zu suggerieren, der sich bei genauer Analyse so gar nicht ergibt. Wie viel
tückische Absicht dahintersteckt, mag man daran ermessen, wie einfach
es doch gewesen wäre, die vier Zahlen - Anzahl Jugendliche unter 15
im Jahre 2006 und 2011, Anzahl Jugendliche, die Hartz IV 2006 und 2011
bekamen, mitzuteilen. Diese Datenmanipulationspraxis knüpft offenbar
nahtlos an die - von Erwin Bixler
aufgedeckte - Fälschungstradition der Bundesanstalt für Arbeit
an. Euphemistisches Stroh dreschen durch tricksen, verdrehen und frisieren
von Daten scheint inzwischen auch eine besondere Spezialität der Arbeitsministerin
Ursula von der Leyen zu sein.
Weitere Quellen:
SZ: http://www.news4teachers.de/2012/01/kinderarmut-geht-zuruck-aber/
Spiegel: http://www.spiegel.de/wirtschaft/soziales/0,1518,811455,00.html
Reuters: http://de.reuters.com/article/worldNews/idDEBEE80P07W20120126
destatis [404]: Bevölkerung nach Altersgruppen seit
1950. (Klassen: unter 20, 20 - 40; 40 - 60; 60 - 80; 80 und mehr)
bpb: http://www.bpb.de/wissen/X39RH6,0,0,Bev%F6lkerung_nach_Altersgruppen_und_Geschlecht.html
bpb: http://www.bpb.de/wissen/RCQ36N,0,Familienhaushalte_nach_Zahl_der_Kinder.html
Ich wollte die Sache aufklären und habe das Statistische Bundesamt, die Bundesagentur für Arbeit, das Familienministerium und das Bundesministerium für Arbeit und Soziales angeschrieben. Die Bundesagentur für Arbeit hat bis heute nicht geantwortet. Alle anderen haben schnell und informativ reagiert. Im folgenden die
Doku Kommunikation mit dem BMAS [> Ergebnis]
(2) Auf diese Anfrage erhielt ich am 7.2. folgende Antwort:
Am 07.02.2012 08:23, schrieb info@bmas.bund.de:
Sehr geehrter Herr Sponsel,
vielen Dank für Ihre E-Mail.
Das Bundesministerium für Arbeit und Soziales ist nicht der richtige
Ansprechpartner für Ihr Anliegen.
Wir schlagen Ihnen vor, sich an das Statistische Bundesamt zu wenden.
(3) Ich schrieb daraufhin am 7.2. zurück:
Hallo Kommunikationscenter, vielen Dank für Ihre Anregung. Ich
hatte schon vorher beim Statistischen Bundesamt angefragt. Die haben aber
nur die Zahlen bis 2010. Da die Bundesarbeitsministerin die Zahlen aber
bei einer Pressekonferenz* verwendet hat, muss sie ja wohl über die
Zahlen verfügen. Also sollte Ihr Haus diese Zahlen auch haben. Daher
möchte ich Sie noch einmal eindringlich bitten, sich der Sache anzunehmen.
Ich habe die Zahlen* von einem Mathematiker mehrfach nachrechnen lassen
immer mit dem Ergebnis einer Inkonsistenz.
Mit freundlichen Grüßen: Rudolf Sponsel (Psychologe)
https://www.sgipt.org/lit/toman/famstat.htm (ISSN 1430-6972)
*DER SPIEGEL berichtet in Nr. 5, 2012, S. 14 [Online*]: "15,1 Prozent
aller Kinder unter 15 Jahren in Deutschland leben von Hartz IV. Das sind
nur 1,5 Prozentpunkte weniger als noch vor fünf Jahren. Damals wie
heute lebt etwa jedes sechste Kind am Rande des Existenzminimums. Vergangene
Woche jedoch freute sich Bundesarbeitsministerin Ursula von der Leyen (CDU)
über Zahlen der Bundesagentur für Arbeit, nach denen im Jahr
2011 rund 257000 Kinder weniger von Sozialleistungen lebten als noch 2006
- ein Rückgang um 13,5 Prozent. Von der Leyen sprach triumphierend
von „sinkender Kinderarmut" und der „Ernte dessen, was wir in den letzten
Jahren an Kraftanstrengungen unternommen haben". Die Statistik trügt
allerdings, denn seit 2006 ist auch die Gesamtzahl der unter 15-Jährigen
um 750000 gesunken. Wenn es insgesamt weniger Kinder gibt, ist es kein
Wunder, dass in absoluten Zahlen auch weniger Kinder auf Hartz IV angewiesen
sind. Der Rückgang ist in großen Teilen ein demografischer Effekt."
(4) Am 8.2. erhielt ich die Mitteilung: Sehr geehrter Herr Sponsel, vielen Dank für Ihre E-Mail. Ihre Zuschrift wurde zur Bearbeitung und Beantwortung an ein Fachreferat weitergeleitet. Mit freundlichem Gruß
(5) Am 22.2. erhielt dann folgendes Schreiben (Name entfernt):
Ergebnis: Offenbar hält das Referat
an der Aussage fest, dass es zwischen September 2006 und September 2011
einen Rückgang um 13.5% gab, ohne zu berücksichtigen, dass die
Bezugspopulationsgröße der unter 15jährigen in der Größenordnung
von ca. einer halben Million geschrumpft ist. Die Größen der
Bezugspopulation im September 2006 und 2011 werden leider nicht mitgeteilt.
Vergleicht man die mitgeteilten Hilfequoten von 2006 (16.5%) und von 2010
(15.9%) wird ersichtlich, dass bei dem angemessenen Vergleichsmaßstab
der Quoten lediglich eine Verbesserung um 16.5 - 15.9 = 0.6% erreicht wurde.
Reallohn-Entwicklung schaltet auf negativ, doch eine Verdummungskampagne hält dagegen. "Da meldet das Statistische Bundesamt heute vollmundig die angeblich frohe Botschaft, die deutschen Reallöhne seien im vergangenen Jahr um 1 % gestiegen. Und selbst die Seriosität vorspielende ZEIT titelt: "Reallöhne im Jahr 2011 gestiegen - Trotz hoher Inflationsrate konnten die Deutschen 2011 über mehr Geld verfügen. Experten erwarten für das Jahr 2012 einen weiteren Zuwachs der Reallöhne." Nichts kann mehr in die Irre führen. Denn erstens werden hier nur die Löhne vollzeitbeschäftigter Arbeitnehmer erfaßt, womit ein großer Teil des wuchernden Niedriglohnsektors mit Teilzeitarbeit und besonders negativer Lohnentwicklung unter den Tisch fällt. Der Anteil der ausschließlich geringfügig Beschäftigten liegt derzeit besonders hoch (Abb. 17072, 17712). ... " [jj 7.2.12]
Internationale
Ausbeutung und Verletzung elementarer Menschenrechte (gestützt
von Ursula von der Leyen) [> Politiker]
Monitor beschäftigte sich in der Sendung vom 2.2.12
mit dem Thema "Ihre Armut, unsere Hemden. Wie die Bundesregierung die Billigmode
verteidigt." Hierbei ging es um die Mindeststandards, die Unternehmen
kontrollierbar abverlangt werden sollten, etwa hinsichtlich Kinderarbeit
oder Löhnen unter jedem Existenzminimum ohne jede soziale Absicherung.
Dass selbst eine Verdoppelung der Löhne nur einen geringfügigen
Mehrpreis des Endproduktes nach sich zöge, wurde an einem Beispiel
aus Bangladesch verdeutlicht: "'Bei der Verdopplung der Löhne in Bangladesch
würde sich der Einkaufspreis eines T-Shirts ungefähr um 15 bis
20 Cent erhöhen.', so Prof. Herbert Loock, Akademie für Mode
und Design, Düsseldorf . Um dem kritischen und solidarischen Verbraucher
Möglichkeiten bei der Auswahl zu geben, beabsichtigt nun die EU-Kommission
"Eine Rechtsvorschrift über die Transparenz der sozialen und ökologischen
Informationen“ zu erlassen. "Im Klartext: Unternehmen müssen ihre
Produktions- und Lieferketten offenlegen. Dazu beabsichtigt die Kommission:
Zitat: "zu überprüfen, ob Unternehmen den von ihnen eingegangenen
Verpflichtungen nachgekommen sind." Doch ausgerechnet die Bundesregierung
lehnt die EU-Initiative rigoros ab. Richard Howitt ist Berichterstatter
des EU-Parlamentes für die soziale Verantwortung von Unternehmen.
Wie bewertet er die Ablehnung der Deutschen? Richard Howitt, EU-Parlament
Berichterstatter für soziale Standards (Übersetzung MONITOR):
"Ich bin sehr enttäuscht über die deutsche Haltung. Kaum war
die neue Strategie veröffentlicht, kam die Ablehnung. Vor allem gegen
unsere zentralen Vorschläge zur Modernisierung und Veränderung
der Standards unternehmerischer Verantwortung." Zuständig für
die soziale Verantwortung von Unternehmen ist Arbeitsministerin Ursula
von der Leyen. Wir fragen nach. Reporterin: "Warum blockieren Sie und Ihr
Ministerium denn hier die EU-Strategie, die eben nicht nur auf Freiwilligkeit
basieren soll?"
Ursula von der Leyen: "Ich finde, dass es ganz wichtig
ist, die soziale Verantwortung von Unternehmen zu diskutieren. Insofern
sind wir im Augenblick mit der EU-Kommission in Diskussionen darüber,
für welche Bereiche es Berichtspflichten geben soll oder auch nicht.
Die Diskussion ist noch offen."
Offen? In einem Schreiben an die EU Kommission,
das MONITOR vorliegt, spricht sich die Bundesregierung ausdrücklich
Zitat: "Gegen neue gesetzliche Berichtspflichten aus." Und weiter
unten heißt es unmissverständlich Zitat: "Das Prinzip der Freiwilligkeit
muss gewahrt bleiben."
Reporterin: "Aber in Ihrem Positionspapier haben
Sie sich doch ganz stark gegen eine gesetzliche Berichtspflichten ausgesprochen?"
Ursula von der Leyen: "Wir sind mit der EU-Kommission genau darüber
in Diskussion. Also ich sage Ihnen hier als Ministerin, dass ich offen
bin für den Dialog."
Die Recherche und Dokumentation von Monitor zeigt
klar und unmissverständlich auf, dass Arbeitsministerin Ursula von
der Leyen schriftliche und überprüfbare Tatsachen einfach wegleugnet.
Das ist eine weitverbreitete und beliebte Methode in der Politik.
_
Quelle: https://de.wikipedia.org/wiki/Entropie_(Informationstheorie)#/media/Datei:Entropy_max.png |
Der Informationsbegriff der Informations- theorie Shannons, der Nachrichtentechnik
und Kybernetik ist beschränkt weil syntaktisch; er entspricht nicht
dem gewöhnlichen Informationsbegriffs, der semantisch ist auf den
sachlichen und inhaltlichen Gehalt der Information abzielt. Wie inhaltliche
und sachliche Informationsgehalte gemessen werden können, ist bislang
nicht gelöst.
Einige Sätze aus der Informationstheorie:
|
Entscheidung / Sachverhalt | Sachverhalt = wahr, richtig | Sachverhalt = falsch, unrichtig |
Entscheidung für wahr, richtig | Entscheidung = wahr, richtig | Entscheidung = falsch, unrichtig |
Entscheidung für falsch, unrichtig | Entscheidung = falsch, unrichtig | Entscheidung = wahr, richtig |
In der Statistik werden unter bestimmten - meist problematischen, unbekannten
oder nicht erfüllten - Annahmen, die Annahmen richtig oder falsch
geschätzt. Über die Wirklichkeit selbst erfährt dabei gewöhnlich
nichts. Aber man bewegt sich in scheinbar exakten, wenn auch virtuellen
Räumen.
__
Fehlerarten: Fehler können durch
systematische oder zufällige Störquellen, durch die Messmethode,
das Messgerät, die Eichung, Anzeige, Ablesung, Irrtümer oder
bewusste Fälschung zustande kommen.
Größe. Grundlegender wissenschaftlicher
Begriff, der im allgemeinen eine quantitative (messbare) Qualität
beschreibt und mit anderen Größen in Zusammenhängen steht,
deren Erforschung Aufgabe der Wissenschaft ist. Im Umfeld der Statistik
und Wahrscheinlichkeit werden Größen vorschnell und leichtfertig
als ausschließliche Zufallsgrößen (Zufallsvariablen) aufgefasst,
was sie natürlich nicht sind. Der Zufall ist nur ein Aspekt. Für
Größen gilt daher G = f(F1, F2, ..., Fi,
... Fn), f(Z1, Z2, ..., Zi,
... Zn), wobei F hier kausale, korrelative und Z "zufällige"
Einflüsse bedeuten sollen.
__
Gruppenkennwert > Zur
Problematik Übertragung auf den Einzelfall.
Kennwerte oder Merkmale, die für eine Gruppe (Menge) gelten, gelten
in der Regel nicht für ihre Elemente. Und Merkmale oder Kennwerte,
die für ein Element gelten, gelten in der Regel nicht für die
Gruppe (Menge). Sind 7 SchülerInnen in einer Klasse von 28 SchülerInnen
an Grippe erkrankt, so gilt für eine zufällig herausgegriffene
SchülerIn nicht, dass sie mit einer Wahrscheinlichkeit von p=0.25
oder mit 25% Grippe hat. Denn jedes Element SchülerIn hat entweder
Grippe oder hat keine Grippe. Die Übertragung von Gruppenkennwerten
auf den Einzelfall ist unzulässig, wenngleich ein häufiger Fehler
mit hoher suggestiver Kraft und Ausstrahlung.
__
Gueltigkeitszeitraum
Aussagen gelten in der Regeln nicht absolut (wie z.B. die Lichtgeschwindigkeit),
sondern
nur unter bestimmten Bedingungen (Normalbedingungen,
Normbedingung,
Standardbedingung,
Validität).
Für Statistiken ist das natürliche Referenzdatum das Erhebungsdatum.
Hier stellt sich dann die Frage: wie lange und unter welchen Bedingungen
gelten gelten die Werte zum Zeitpunkt der Erhebung?
__
Häufigkeit := Anzahl von Ereignissen
für einen bestimmten Zeitraum.
__
Heteroskedastizität:
ungleiche, veränderliche Varianz, Inkonstanz der Varianz.
__
Histogramm. Grafische Darstellung von
Häufigkeiten. [W]
__
Homoskedastizität: gleiche
Varianz, Varianz Konstanz
__
Homogenität Allgemein Gleichartigkeit,
rein
Für psychologische Tests erklären Bortz
& Döring (1995), S. 201f: "Homogenität: Die Items
eines eindimensionalen = Instruments stellen Operationalisierungen desselben
Konstrukts dar. Entsprechend ist zu fordern, daß die Items untereinander
[RS: positiv] korrelieren. Die Höhe dieser wechselseitigen Korrelationen
nennt man Homogenität. (Die Auswahl des geeigneten; Korrelationskoeffizienten
hängt auch hier wiederum vom Skalenniveau der Items ab.). Korreliert
man alle k Testitems paarweise miteinander, ergeben sich k*(k-i)/2 Korrelationskoeffizienten
(rii) deren Durchschnitt (r-querii) die Homogenität
des Tests quantifiziert (zur Berechnung einer durchschnittlichen Korrelation
vgl. Bortz, 1993, S. 201). Mittelt man dagegen nur die Korrelationen eines
Items mit allen anderen Items, erhält man die itemspezifische Homogenität.
Bei der Homogenitätsberechnung werden die Autokorrelationen (Korrelation
eines Items mit sich selbst) außer acht gelassen."
Die Homogenitätsforderung ist z.B. im CST-Charakter-Struktur-Test
von Sponsel erfüllt (siehe
bitte hier): Alle Z, H, S und D-Items korrelieren positiv untereinander.
__
Hypothese. Wissenschaftlicher Grundbegriff.
Verwerfungsregel: Eine Hypothese für ein Ergebnis wird verworfen,
wenn bezüglich der Voraussetzungen und Annahmen die Wahrscheinlichkeit
für das Ergebnis kleiner-gleich einer gewählten Schranke (Irrtumswahrscheinlichkeit,
Signifikanzniveau) ist. Das Ergebnis gilt bezüglich der gewählten
Schranke als unwahrscheinlich. Die meisten Hypothesenprüfungen in
der angewandten Statistik prüfen nur virtuelle Möglichkeiten
mit virtuellen Annahmen gegen andere virtuelle Annahmen. Das Zusammenwirkungen
kausaler Faktoren, korrelativer Faktoren und "des Zufalls" ist weitgehend
ungeklärt und wird gewöhnlich nicht erörtert. Die Lehrbücher
sind leer davon.
__
Hypothesendiskussion. Zu
ihr gehören die Erörterung der Hypothesen, ihre Entwicklung und
Begründung, die Prüfmethoden, Voraussetzungen und Annahmen, Formulierung
der Ergebnisse in deutschen Worten, Erörterung der Fehlerarten und
die Möglichkeiten ihrer Abschätzung. Sehr oft kommen inhaltliche
Erörterungen viel zu kurz.
___
Hypothesenraum. > Integratives
Testprinzip, relevanter
Merkmalsraum. Gesamtheit der potentiell relevanten Hypothesen. Eine
vernünftige und realitätsorientierte Statistik muss den gesamten
relevanten Hypothesenraum erfassen und die Hypothesendiskussion realitätsbezogen
darin führen.
__
IMA Integrated Moving Average Modell. > Zeitreihenanalyse.
__
Indifferenzprinzip „Wenn keine
Gründe dafür bekannt sind, um eines von verschiedenen möglichen
Ereignissen zu begünstigen, dann sind die Ereignisse als gleich wahrscheinlich
anzusehen.“ (Carnap & Stegmüller, 1958, S. 3). In der Philosophie
und Wissenschaft auch: Prinzip vom unzureichenden Grund.
__
Identifikationsanalyse
Ein Merkmalsträger soll mit einem Kriteriumsmerkmalsträger
verglichen werden und mit Hilfe eines Vergleichs der Kriteriumsmekrmalsträgergruppe
zugeordnet werden können oder nicht. Im Prinzip das Kernproblem der
Diskriminanzanalyse.
Der Ausdruck wird verwendet von Flury, Bernhard & Riedwyl, Hans (1983)
Identifikationsanalyse. In (99-111): Angewandte multivariate Statistik.
Computergestützte Analyse mehrdimensionaler Daten. Stuttgart: Gustav
Fischer.
Kohärenzprinzip. Begriff der
subjektiven Wahrscheinlichkeitstheorie, wonach in einem Wettsystem sichere
Verluste ausgeschlossen werden. [1,2,3,]
__
Kohorte.
Die Internetseite von de statis
definiert (Abruf 1.8.18): "Kohorte Eine Gruppe von Personen die ein gleiches
Ereignis zur gleichen Zeit erfahren hat. Eine Geburtskohorte entspricht
z.B. einer Gruppe von Personen die im gleichen Kalenderjahr geboren wurden
(auch Geburtsjahrgang)."
__
Kolmogoroff-Axiome.
Quelle Kolmogoroff, A. (1933; Nachdruck
1973, S. 2).
__
Kollinearität:
[Kollinearitätsanalyse
in Korrelationsmatrizen]
__
Konnektivitaet, Konnexität
Ausdruck der psychologischen Messtheorie: a >= b oder b >= a.
__
Konfundiert, Konfundierung.
untrennbar zusammenhängend; miterfasst. Sind zwei Merkmale M1 und
M2 untrennbar miteinander verbunden, z.B. Alter und Geschlecht, so kann
sich die Frage stellen, ob ein Effekt E durch das Alter, das Geschlecht,
durch beides oder durch keines von beidem bestimmt ist. Die Kontrolle von
miteinander konfundierten Variablen spielt in Experimenten eine wichtige
Rolle. Eine Möglichkeit konfundierte Effekte im wahrsten Sinne des
Wortes herauszurechnen besteht in der Nutzung partieller
Korrelationsanalyse.
__
Kontingenz - kontingent
Allgemein Zusammenhang, in der Statistik Zusammenhangsmaß. Übersicht
bei Wikipedia [Abruf
16.05.18].
In der Lerntheorie meist der Zusammenhang zwischen Reiz und Reaktion.
Ein Kontingenzschema der verschiedenen Reiz- und Reaktionsvarianten finden
Sie bei Wikipedia [Abruf
16.05.18]
__
Kontinuität. relativ dauerhaft,
nachhaltig, stetig, konstant zu einem Bezugsverlauf. > Stationarität.
__
Korrelation.
Zusammenhang. Es gibt viele Zusammenhangsmaße und damit unterschiedliche
Korrelationsbegriffe, so dass immer dazu gesagt werden sollte, um welche
Korrelation es sich handelt. [partielle
Korrelation]. > Regression.
__
Kovarianz. Ko = mit. Varianz = Streuung.
Mit- oder gemeinsame Streuung von zwei Datensätzen: Sxy
= 1/n [Summe(xi - mx) (yi - my),
wobei hier m der arithmetische Mittelwert sei. Beispiel: X=1,2,3. Y=2,3,4.
mx=2; my=3. n = 3:
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Besonderheiten und Zusammenhänge: Kovarianzen sind nicht standardisiert (nicht normiert auf die Standardabweichung). Wird mit standardisierten Werten gerechnet, ist die Kovarianzmatrix mit der Korrelationsmatrix identisch. In der schließenden (Inferenz-) Statistik wird wegen der Erwartungstreue nicht durch n, sondern durch 1/(n-1) dividiert. Die Kovarianz steht in der Korrelationsformel nach Bravais-Pearson im Zähler.
__
Kovarianzanalyse
Im Dorsch wird ausgeführt: "Kovarianzanalyse (= K.) [engl. analysis of covariance], [FSE], Erweiterung des varianzanalytischen Verfahrens, um (1) den Versuchsfehler zu verringern, indem verzerrende Einflüsse möglicherweise konfundierter Drittvariablen (Konfundierung) kontrolliert werden, oder (2) die Wirkung von unabhängigen Variablen auf die Kovarianz zweier abhängiger Variablen zu analysieren. Die Anwendung einer K. ist z. B. erforderlich, wenn die Wirkung zweier Lernmethoden auf die Behaltensleistung an zwei Gruppen untersucht werden soll, die sich in ihrer Intelligenz (konfundierte Variable) unterscheiden, da angenommen werden kann, dass Intelligenz und Behaltensleistung nicht unabhängig voneinander sind. Kovariate, Varianzanalyse, Propensity score."
In einem Vergleich Varianz- und Kovarianzanalyse stellen Röhr et al. (1983), S. 299 fest: "Durch beide Untersuchungen wird belegt, daß mittels Kovarianzanalyse Fehlentscheidungen (möglicherweise schwerwiegender Art) vermeidbar sind. Da es in Pädagogik und Psychologie sicher ist, daß Effektvariablen durch zahlreiche Kovariablen beeinflußt werden könnten oder tatsächlich beeinflußt werden, erweist sich die Kovarianzanalyse in vielen Fällen als geeignetere Analysetechnik. Es soll nicht unerwähnt bleiben, daß man beispielsweise mit der Homogenisierung von Gruppen ein Mittel in der Hand hat, um Unterschiede in Kovariablen auszugleichen. ..."
Röhr et al. (1983), S. 305 zählen folgende Voraussetzungen auf: "Voraussetzungen und deren Überprüfung
Die Voraussetzungen für die einfache Kovarianzanalyse müssen naturgemäß mit denen der einfachen Varianzanalyse zusammenfallen, sofern sie allein die Effektvariable Y betreffen. Da zusätzlich zu Y die Kovariable X1 betrachtet wird, kommen jedoch weitere Voraussetzungen hinzu, die die Regression von X1 auf Y betreffen. Zusammengefaßt heißen die Voraussetzungen für eine kovarianzanalytische Auswertung:
I Für X1 und Y liegen Meßwerte vor.
II Aus jeder der p Grundgesamtheiten wurde eine Zufallsstichprobe vom Umfang ni (i = 1,... , p) entnommen. Die Stichproben sind voneinander unabhängig.
III Die Effektvariable Y ist in jeder der p Grundgesamtheiten normalverteilt.
IV Die Varianzen Sig2 für F sind in allen p Grundgesamtheiten gleich (Homogenität der Varianzen).
V In jeder der p Grundgesamtheiten existiert eine lineare Regression von X1 auf Y.
VI Die Regressionskoeffizienten ßi sind in allen p Grundgesamtheiten gleich (Homogenität der Regressionen).
Die Erfüllung von I und II muß vom Experimentator durch eine geeignete Versuchsplanung von vornherein gesichert werden, da eine mathematisch-statistische Überprüfung nicht möglich ist. Für III ist es erforderlich, mittels geeigneter Verfahren die Anpassung der p empirischen Verteilungen von Y an die zugehörigen Normalverteilungen zu ermitteln.
Verwendet man das chi2-Verfahren, ist es ratsam, dies in eine Voruntersuchung zu verlagern, da die Stichprobengrößen ni bei einer Kovarianzanalyse oft nicht die für den Test nötigen Größenordnungen (etwa ni > 60) besitzen."
__
Kurtosis Das 4. Moment. Maß oder Kennwert für die Wölbung, Steil- oder Flachheit einer eingipfligen Verteilung.
__
Laborwertnormen.
__
Längsschnitt-Statistik (Longitudinal). Erhebung von Werten über verschiedene Zeit- bzw. Messzeitpunkte hinweg, z. B. alle zwei Monate Bestimmung der Leberwerte für die Dauer eines Jahres. > Querschnitt.
__
Lag Lücke zwischen zwei Markierungen, in der Zeitreihenanalyse der Wert für die Verschiebung, z.B. 1, 2, 3, ...
__
Laplace-Experiment. "Ein stochastisches Experiment heißt Laplace-Experiment, wenn die zugehörige Wahrscheinlichkeitsverteilung gleichmäßig ist." Die Wahrscheinlichkeit bei einem Laplace-Experiment ergibt sich dann mit p = günstige Fälle/ mögliche Fälle. (Beispiele: Urne, Würfel, Münze)
Quelle: Barth,F. & Haller, R. (1984a). Stochastik Leistungskurs. München: Ehrenwirt.
__
Letalität. Sterblichkeit.
__
Likelihood. Engl.: Mutmaßlichkeit, Wahrscheinlichkeit. Manchmal auch das Verhältnis von (relativen) Häufigkeiten, wodurch sich Werte größer 1 ergeben können. Das Prinzip besteht in der Überlegung bei einer erhaltenen Wahrscheinlichkeit diesen für den wahrscheinlichsten zu halten. Nimmt man eine Verteilung an, so kann man ausrechnen, welcher Parameter, z.B. die relative Häufigkeit - die ein Maximum Likelihood Schätzer für den Mittelwert ist - am besten zu dem gegebenen Wert passt > Maximum Likelihood Methode.
__
Likelihood-Quotient L = p(S|B) / p(S|-B). Allgemein in Worten: Das Verhältnis der Wahrscheinlichkeit für einen Sachverhalt S unter der Bedingung B gegenüber der Nichtgegebenheit der Bedingung B, also -B. Für L =1 spielt B oder -B keine Rolle. Je mehr L > 1 desto stärker wirkt B für S, je mehr L < 1, desto geringer wirkt B für S.
Likelihood-Überlegungen spielen auch in der juristischen Indizienbewertung eine wichtige Rolle. Bender & Nack (1995) Tatsachenfeststellung vor Gericht. Bd. 1 Glaubwürdigkeits- und Beweislehre. München: Beck gehen im 2. Teil, Beweislehre, ausführlich mit Beispielen darauf ein (Rn 403-485 oder S. 226-275). Bsp. S. 228: Angenommen 30% aller betrunkenen Mofafahrer (B) fahren ohne Licht (S), während das bei den nüchternen Mofafahrern (-B) nur in 5% der Fall ist, so ergibt sich ein L = 0.30 / 0.05 = 6. Das heißt, die Wahrscheinlichkeit ohne Licht zu fahren, ist unter Trunkenheit 6x größer als bei Nüchternen.Likelihood-Quotienten-Test. Vergleicht die Wahrscheinlichkeiten für die Null- und Alternativhypothese unter den Annahmen, dass sie richtig sind. Diese Idee erscheint gegenüber dem Signifikanztest, der mit Annahme A1 eine Annahme A2 mit einer anderen Annahme A3 vergleicht, und keinerlei Aussage über die Wirklichkeit erlaubt, etwas informativer. Nachteil: parametrische Voraussetzungen. Anwendung Forensik [z.B. Q].
__
Likelihood Ratio
__
Likelihood Ratio, negative
__
Likelihood Ratio, positive
__
Logik Lehre vom richtigen Schließen aufgrund der Form. Wenn zu jedem S ein P gehört und M ein S ist, dann gehört zu M auch ein P. Die Inhalte von S, P, M spielen hier keine Rolle. Der Schluss ist logisch immer richtig, unabhängig davon, was man für S, P und M einsetzen mag. Ein logisches Urteil ergibt sich oder gilt aus "rein" logischen Gründen.
__
Longitudinal > Längsschnitt.
__
Masstheorie mathematische Theorie des Messens
__
MA Moving Average Modell. > Zeitreihenanalyse. [, Matlab, ]
__
Markovkette
__
Maximale Clique (auch: Maximaler vollständiger Untergraph). Ausdruck der Graphentheorie und Klassifikation. Eine maximale Clique ist eine Clique, die durch das Umfassen eines mehr angrenzenden Scheitelpunkts, d. h. eine Clique nicht erweitert werden kann, die exklusiv innerhalb des Scheitelpunkt-Satzes einer größeren Clique nicht besteht.
Eine Clique in einem ungerichteten Graphen G = (V, E) ist eine Teilmenge des Scheitelpunkt-Satz-C V, solch, dass für alle zwei Scheitelpunkte in C, dort ein Rand besteht, der die zwei verbindet (anschließt). Das ist äquivalent, dass der durch C veranlasste Subgraph abgeschlossen ist (in einigen Fällen, kann sich der Begriff (Frist) Clique auch auf den Subgraphen beziehen).
__
Maximaler vollständiger Untergraph > maximale Clique.
__
Maximum-Likelihood-Methode. Von R. A. Fisher 1921 entwickeltes Verfahren zur Schätzung von Wahrscheinlichkeiten. Es wählt diejenige aus, die unter bestimmten Annahmen die größte Wahrscheinlichkeit für ein vorliegendes Resultat hat.
Wallis & Roberts (dt. 1969), S. 371:"14.2.1.2 Maximale Mutmaßlichkeit. Das Prinzip, unter dem Punkt-Schätzfunktionen im allgemeinen ausgewählt werden, wird als das Prinzip der maximalen Mutmaßlichkeit {maximum likelihood) bezeichnet. Es handelt sich dabei um einen Gedanken, den Sir Ronald Fisher erstmalig im Jahre 1921 behandelte (vgl. Abschn. 1.4.2). Man betrachtet jeden möglichen Wert, den der Parameter haben könnte, und errechnet für jeden Wert die Wahrscheinlichkeit, daß die jeweilige spezifische Stichprobe eingetreten wäre, wenn dies der richtige Wert des Parameters wäre. Von allen möglichen Werten des Parameters wird dann derjenige als Schätzung ausgewählt, für den die Wahrscheinlichkeit der tatsächlichen Beobachtungen die größte ist. Formeln, die solche Schätzungen angeben, werden als Schätzfunktionen der maximalen Mutmaßlichkeit {maximum likelihood estimators) bezeichnet. ... .... ...__
. Eine Warnung: Der Grund für die Schätzung von P als 0,65 ist nicht die Tatsache, daß, wenn P = 0,65, das wahrscheinlichste Stichproben-Resultat p =0,65 wäre; in der Tat ist p — 0,65 das wahrscheinlichste Ergebnis in einer Stichprobe von 20 für jedes P zwischen 0,619 und 0,667. Der Grund für die Schätzung von P als 0,65 ist der, daß eine Stichprobe mit p = 0,65 wahrscheinlicher ist, wenn P = 0,65, als wenn P irgendeinen anderen Wert hat."
Median. Der Wert, der eine Messwert-Reihe in zwei Hälften teilt, z. B. 3 in: 1, 1, 2, 2, 3, 3, 3, 3, 4, 5, 5.
__
Mengenlehre. Nach der Mengenlehre besteht die Messwert-Reihe "1, 1, 2, 2, 3, 3, 3, 3, 4, 5, 5" aus 5 Elementen.
__
Merkmalsraum, relevanter. [1,]
__
Messen, Messung. Genau beschriebenes und damit prinzipiell wiederholbares und überprüfbares Verfahren zur Feststellung einer Ausprägung. Eine Messung ist lehr- und lernbar. Es ist sehr zweifelhaft, ob in der Erlebnis-Psychologie echte Messungen möglich sind.
__
Messfehler. Als allgemeiner Erfahrungssatz gilt: jede Messung ist mit einem Fehler behaftet, so das für den Messwert x, den gedachten wahren Wert w und den Messfehler f gilt: x = w + f. Da der wahre Wert eine gedachte Konstruktion und nie bekannt ist, muss er in praxi geschätzt werden. Diesen Näherungswert nennt man auch den "richtigen" Wert r und damit gilt dann: x = r + f. Man nimmt hierfür oft den arithmetischen Mittelwert. [> Fehlerarten.]
__
Messtheorie
Bezeichnung für die psychologische Messtheorie. Sie erforscht die Grundlagen des Messens in der Psychologie. Die "Messtheorie" der Mathematik heißt Maßtheorie. In der Naturwissenschaft und Technik gilt die Norm DIN 1319 [W].
Orth (1974) führt S. 9 aus:"Das Messen ist sowohl historisch als auch methodisch gesehen eine der Grundlagen der Wissenschaft. Ohne die Durchführung exakter Messungen läßt sich die Entwicklung der empirischen Wissenschaften, insbesondere der Naturwissenschaften, nicht vorstellen. Seit sich die Psychologie, wie auch andere Sozialwissenschaften, mehr und mehr als empirische Wissenschaft versteht, stellt sich auch hier die Frage der Entwicklung geeigneter Meßmethoden. Es erwies sich jedoch sehr bald, daß die Messung psychischer Eigenschaften, wie z. B. Empfindungen, Einstellungen, Intelligenz oder Angst, zumindest schwieriger ist als die physikalischer Eigenschaften, wie z. B. Länge, Zeit, Gewicht oder elektrischer Widerstand. Es wurde sogar die Auffassung vertreten, daß das Messen in der Psychologie prinzipiell nicht möglich sei, zumindest nicht in dem Sinne wie beispielsweise in der Physik.Die Grundprobleme des psychologischen Messens werden in vier Bereichen erörtert: Bedeutsamkeitsproblem, Eindeutigkeitsproblem, Repräsentationsproblem, Skalierungsproblem. Trotz eines gewaltigen formalen Apparates:
Vor diesem Hintergrund zeichneten sich zwei Fragen von grundlegender Bedeutung für die Psychologie ab:
1. Ist die Messung psychischer Eigenschaften prinzipiell möglich, und zwar in einem mit dem Messen in den Naturwissenschaften zu vereinbarenden Sinne?
2. Falls dies der Fall ist, wie können psychische Eigenschaften gemessen werden?
Der Klärung dieser sowie weiterer, hiermit zusammenhängender Fragen widmeten sich — in verstärktem Maße etwa seit den fünfziger Jahren — vor allem Wissenschaftstheoretiker, Logiker, Mathematiker, Wirtschaftswissenschaftler und Psychologen. Das Forschungsgebiet, das sich aus den Bemühungen um eine Antwort auf diese Fragen entwickelte, bezeichnen wir heute als Theorie des Messens oder als Meßtheorie.
Die Meßtheorie erforscht mit mathematischen Methoden die Grundlagen des Messens und gibt so die Voraussetzungen für die Meßbarkeit von Eigenschaften an. Ihre Ergebnisse zeigen, daß auch psychische Eigenschaften grundsätzlich meßbar sind, und zwar in demselben Sinne, wie es physikalische sind. Die theoretischen Untersuchungen der Meßtheorie führten darüber hinaus zur Entwicklung praktischer Meßverfahren, die in den Sozialwissenschaften neben die länger bekannten Skalierungsverfahren und Tests treten und neue Möglichkeiten der Messung insbesondere auch psychischer Eigenschaften bieten."sieht es mit der psychologischen Mess-Praxis immer noch sehr düster aus (August 2018). Die grundlegenden Probleme der Psychologie scheinen nicht begriffen. Vgl. hierzu auch die Kritik von Jaenecke, Peter (10.12.07/28.12.07/04.08.14) Einführung in die Messtheorie. PDF Online.Krantz, D. H., Luce, R. D., Suppes, P. & Tversky, A. (1971). Foundations of measurement. Vol. 1 New York: Academic Press. [Taschenbuch 2006] Suppes, Patrick, Krantz, David H., Luce, Duncan R. & Tversky, Amos (1989) Foundations of Measurement, Vol. 2 Geometrical, Threshold, and Probabilistic Representations. New York: Academic Press. [Taschenbuch 2006] Luce, Duncan R.; Krantz, David H.; Suppes, Patrick & Tversky, Amos (1990) Foundations of Measurement, Vol. 3 Representation, Axiomatization and Invariance. New York: Academic Press. [Taschenbuch 2006]
__
Messwert. Zahlenwert.
__
Messungen per fiat Orth, B. (1974, S. 41). Einführung in die Theorie des Messens. Stuttgart. Kohlhammer: "Das über die Skalierungsverfahren Gesagte gilt sinngemäß auch für psychologische Tests. Diese sind auch 'Meßverfahren per fiat' genannt worden (Torgerson, 1958; Pfanzagl, 1968; Fischer, 1970), da sie auf dem Glauben beruhen, daß die jeweilige Eigenschaft meßbar sei, und daß Tests zur Messung auf Intervallskalenniveau führten. Ein weiterer Unterschied zwischen Meßstrukturen und Tests besteht darin, daß bei letzteren nicht ein empirisches Relativ in ein numerisches, sondern ein numerisches Relativ in ein anderes numerisches Relativ abgebildet wird. Es werden (numerische) Testrohwerte in numerische Testwerte abgebildet bzw. transformiert. Für eine Messung mit Hilfe von Tests auf Intervallskalenniveau sind die meßtheoretischen Grundlagen erst noch zu entwickeln. ..."
__
Methode Methodisch vorgehen heißt, Schritt für Schritt, von Anfang bis Ende, Wege und Mittel zum (Erkenntnis-) Ziel angeben. Zum allgemeinen Methodenbegriff gehört wenigstens ein Ziel, ein Mittel, um dieses Ziel zu erreichen und ein Weg bzw. eine Anwendungsregel für die Mittel. In der Psychopathologie und Psychotherapie gibt es zwei Hauptziele: Erkenntnis-Ziele (Diagnostik), Veränderungs-Ziele (Behandlung).
__
Metrik > W: Metrischer Raum.
Eine Metrik definiert Abstandsmaße, wovon es verschiedene geben kann (euklidische, nicht-euklidische, ...)
__
Minimum. Der kleinste Wert in einer Reihe, z. B. 1 in: 1, 1, 2, 2, 3, 3, 3, 3, 4, 5, 5.
__
Mikrozensus. Stichprobenauswahlverfahren. [W]
__
Missing Data (fehlende Daten bei Erhebungen)
Bei multivariaten Verarbeitung kann es zu erheblichen Störungen kommen, wenn Missing Data und keine angemessenen Lösungen vorliegen. Werden unvollständige Datensätze paarweise aus der Korrelationsberechnung ausgeschlossen, kommt es zu einer Verzerrung der Winkel aufgrund verschieden grožer Stichumfänge. Formal äquivalent und daher ebenso problematisch sind Metaanalytische Stichproben-Mischungen mit unterschiedlichen Umfängen N. Sponsel & Hain (1994, Kap. 3.2.4, Hain 6.5.4) haben den Auswirkungen von Missing Data Arbeiten vorgelegt. Sponsel hat an zahlreichen Matrizenanalysen gezeigt, welche Entgleisungen auftreten können, wenn mit falschen Missing Data Lösungen gearbeitet wird. Viele Statistikprogrammpakete bieten seit Jahrzehnten Missing-Data-Problemlösungen an (z.B. BMDP 1983: SAS 1983; SPSS 1975; SPSS 9 1983), aktuell Holm/ALMO 2020 "plausible values".
Aktuell kann man bei Coronazahlen der epidemiologischen Statistiker täglich viele ungelöste und nicht einmal ordentlich dokumentierte Missing Data beobachten.Lit-MisDat (Auswahl):__
Dodge,Y. (1985) Analysis of experiments with missing data. Wiley.
Enders, Craig K. (2010) Applied Missing Data Analysis. Guilford Press
Graham, John W. (2012) Missing Data. Springer
Little, Roderick J. A.; Rubin, Donald B. (2002), Statistical Analysis with Missing Data (2nd ed.). Wiley.
Lösel,F., Wüstendörfer, W. (1974) Zum Problem unvollständiger Datenmatrizen in der empirischen Sozialforschung, Kölner Zeitschrift für Soziologie und Sozialpsychologie 26, 1974, 342-357
Mirkes, E.M.; Coats, T.J.; Levesley, J.; Gorban, A.N. (2016). Handling missing data in large healthcare dataset: A case study of unknown trauma outcomes. Computers in Biology and Medicine. 75: 203–216. arXiv:1604.00627.
Raghunathan, Trivellore (2016) Missing Data Analysis in Practice. Chapman & Hall
Mittel um Ziele zu erreichen. Wichtiger allgemeiner und wissenschaftlicher Grundbegriff, der zum Methodenbegriff gehört. Die sprachliche Wendung Mittel zum Zweck bringt es ganz gut auf den Punkt.
__
Mittelwerte
Mittelwert ohne nähere Angabe. Meist ist der arithmetische gemeint und oft auch so erkennbar. Sicher wäre es, genau zu anzugeben, von welchem man spricht. Most (1955, S. 8, § 12: S. 57-65) führt folgende Mittelwerte an: "I. Errechnete Mittelwerte: 1. und 2. Arithmetische Mittel. 3. und 4. Geometrische Mittel. 5. Harmonisches Mittel. 6. Quadratisches Mittel. 7. Antiharmonisches Mittel. II. Mittelwerte der Lage: 1. Zentralwert. 2. Häufigster Wert. 3. Schwerster Wert. 4. Scheidewert." Lit: > Jecklin; [W]__
__
Mittelwerte und Durchschnitte
Informations- und Lernseite des statistischen Bundesamtes zum Thema "Mittelwerte und Durchschnitte".Mittelwert, arithmetischer. Summe aller Werte dividiert durch die Anzahl. [W]
__
Mittelwert, geometrischer.
Geometrisches Mittel (n-te Wurzel des Produkts der n Zahlen; Anwendung Wachstumsraten, durchschnittliche Verzinsung bei jährlich unterschiedlichen Zinssätzen. Mathebibel: "Das geometrische Mittel (im Gegensatz zum arithmetischen Mittel) dient zur Messung des Durchschnitts einer prozentualen Veränderung. Aus diesem Grund sagt man zum geometrischen Mittel auch durchschnittliche Veränderungsrate.")
__
Mittelwert, harmonischer. [W]
Besonders geeignet für Mittelwerte bei Verhältniszahlen (z.B. von Geschwindigkeiten: v = s/t). [W]
Harmonisches Mittel (Anzahl der Werte durch die Summe der Kehrwerte der Werte; Anwendung Geschwindigkeiten. Mathebibel: "Das harmonische Mittel kommt meist dann zum Einsatz, wenn der Mittelwert von Verhältniszahlen gesucht ist. Eine Verhältniszahl ist als Quotient zweier statistischer Größen definiert.")
Modalwert Der häufigste Wert in einer Reihe, z. B. 3 in: 1, 1, 2, 2, 3, 3, 3, 3, 4, 5, 5.
__
Modell Wichtiger, nützlicher aber vieldeutiger wissenschaftlicher Grundbegriff. 1) Nachbildung, künstliche Kopie von etwas Bestehendem, z.B. Modellauto, Eiffelturm, Gehirn, Landkarte. 2) Konstruktion für einen Sachverhalt zu seinem besseren Verständnis, zur Erklärung und Vorhersage, Theorie, z.B. Urnenmodell der Wahrscheinlichkeit, Messmodelle. 3a) Isomorphie zwischen zwei Repräsentationen. 3b) In der Mathematik auch die konkrete Realisation einer abstrakten Theorie. Die Vorstellung, im Ganzen oder in Teilen, von Bild (Original) und Abbild (Modell) trifft es ganz allgemein. Zusammenhänge zwischen Begriffen können graphisch dargestellt werden: Modell des Zusammenhanges. Skizzen, Graphiken, Fotos oder 3D Darstellungen können als Modelle aufgefasst werden. Ein Modell der Denkprozesse bildet nach, wie Denken psychologisch tatsächlich abläuft. Ein Handlungs-Modell erklärt Entwicklung, Entscheidung, Entschluss und Ausführung einer Handlung. Modelle stehen oft auch am Anfang der Theorienbildung als heuristische Konstruktionen. Besonders wertvoll kann an Modellen sein, dass sie zu Präzisierungen zwingen, Stärken und Schwächen treten klarer und fassbarer hervor.
__
Moderatorvariable
Eine Variable V, die über eine andere Variable und mit ihr verbundene A auf eine Variable B wirkt, z.B. auch im klassischen Fall einer Scheinkorrelation (Geburtenrate und Anzahl der Storchennester)
__
möglich, Möglichkeit > Gegensatz unmöglich.
Wichtiger allgemeiner und wissenschaftlicher Grundbegriff, dass sich ein Sachverhalt ereignen kann, aber nicht ereignen muss. Nicht alles Denkbare ist auch möglich. Denken kann man alles, auch sein Gegenteil. Ontologisch gilt im allgemeinen die Stugfenfolge: Denkbar > möglich > wirklich.
__
Moment. Sammelbezeichnung oder Klassenbegriff für die verschiedenen statistischen Kennwerte oder Parameter einer Verteilung: [W]. 1. Moment Erwartungwert (Mittelwert), 2. Moment Varianz, 3. Moment Schiefe, 4, Moment Kurtosis (Exzess).
__
Morbidität. Unklarer medizinstatistischer, epidemiologischer Begriff. 1) Gesundheitsbrockhaus 1990: Gibt die Häufigkeit einer Erkrankung pro 1000 oder 10.000 für ein Jahr oder einen anderen Zeitraum an. 2) Grundmann, E. (1994, Hrsg.; S.4-5): „Die M. ist die Zahl einer bestimmten Erkrankung in einer bestimmten Bevölkerungsgruppe in einem bestimmten Zeitraum (meist einem Jahr). Sie berechnet sich nach der Formel: Mz = (Erkrankungszahl x 10 000) / Bevölkerungszahl“. In dieser Formel fehlen die Einheiten der Zeit und die soziologische Spezifikation. 3) Nach Renner, D. (6.A. 1990, S. 24): „M. - Anzahl an einer bestimmten Krankheit leidender Personen per Gesamtbevölkerung in einem bestimmten Beobachtungszeitraum.“ Nach diesem Autor wird M. auch synonym mit Neuerkrankungsrate (> Inzidenz) verwendet. Die Inzidenz wird von Schaefer & Blohmke (1978, S.111) wiederum der > Prävalenz gleichgesetzt.
__
Mortalität. Medizinstatistischer, epidemiologischer Begriff, der die Sterblichkeit einer Krankheit bezogen auf die Gesamtzahl der Lebenden eines Jahrganges pro 10.000 oder 100.000 angibt im Unterschied zur > Letalität, die das Verhältnis der an einer Krankheit Gestorbenen in Beziehung zur Anzahl der Erkrankten angibt.
__
Multidimensionale Skalierung
"Multidimensionale Skalierung (MDS) umfasst eine Gruppe von Skalierungsmethoden, die Messungen von Ähnlichkeiten bzw. Unähnlichkeiten zwischen Paaren von Objekten als Distanzen zwischen Punkten in einem niedrigen multidimensionalen Raum wiedergibt (Borgi Groenen 2005, S. 3)." Quelle S. 153: Rohrlack, Christian () Multidimensionale Skalierung. In (153-173) Albers, Sönke; Klapper, Daniel ; Konradt, Udo; Walter , Achim & Wolf, Joachim (2009, Hrsg.) Methodik der empirischen Forschung 3., überarbeitete und erweiterte Auflage. Wiesbaden: Gabler.
__
Multikollinearität. In einer Tabelle (Matrix) gibt es mindestens 2 Kollinearitäten (vergleichbarer Datensätze, also aus der gleichen Stichprobe oder Population mit jeweils gleicher Anzahl n).
__
Nebenbedingung > > Bedingung.
__
Non-parametrische Statistik. Nicht-parametrische ist im Gegensatz zur parametrischen Statistik voraussetzungsarm und mehr datenangemessen. Altmeister Siegel schreibt (dt. 1976, S. 2f): "Im Lauf der Entwicklung der modernen statistischen Methoden konstruierte man zunächst Verfahren des statistischen Schließens, die sehr viele Annahmen über die Art der Population machten, aus der die Stichprobe gezogen wurde. Da die Populationswerte "Parameter" sind, nennt man diese statistischen Verfahren parametrisch. Eine Technik des Schließens kann z.B. auf der Annahme beruhen, daß die Daten aus einer normalverteilten Population stammen. Oder sie kann auf der Annahme beruhen, daß zwei Datenbündel aus Populationen erhoben wurden, die dieselbe Varianz (a2) oder Streuung der Daten aufweisen. Diese Verfahren führen zu eingeschränkten Schlußfolgerungen, z.B. 'Wenn die Annahmen über die Art der Verteilung der Population(en) gültig sind, läßt sich daraus schließen, daß... '.
Inzwischen sind eine große Anzahl von Verfahren des statistischen Schließens entwickelt worden, die ohne die zahlreichen oder strengen Annahmen über Parameter auskommen. Diese neueren "verteilungsfreien1 oder nicht-parametrischen Verfahren führen zu Schlüssen, die mit weniger Einschränkungen verbunden sind. Wenn wir eines davon anwenden, so können wir etwa sagen: "Ungeachtet der Verteilungsform der Population(en) können wir folgern, daß...". In diesem Buch werden wir uns mit diesen neueren Verfahren beschäftigen.
Einige nicht-parametrische Verfahren werden oft "Rang-Tests" oder "Ordinal-Tests" genannt, und diese Bezeichnungen lassen noch andere Unterschiede zu parametrischen Tests erkennen. Bei der Berechnung parametrischer Tests addieren, multiplizieren, und dividieren wir die Werte aus den einzelnen Stichproben, Führt man diese Rechenarten auch mit Daten durch, die eigentlich nicht numerisch sind, so werden diese verzerrt, und die aus dem Test gezogenen Schlußfolgerungen sind nicht mehr zulässig. Man ist also in der Anwendung parametrischer Verfahren auf Daten beschränkt, die in numerischer Form vorliegen. Dagegen gehen viele nicht-parametrische Tests von der Rangordnung der Daten und nicht von deren 'numerischem' Wert aus, und einige Tests lassen sich sogar auf Daten anwenden, die nicht einmal eine Rangordnung zulassen, d.h. die lediglich klassifiziert sind. Während der parametrische Test etwa die Differenz der arithmetischen Mittel zweier Datenreihen untersucht, geht es im äquivalenten nicht-parametrischen Test um den Unterschied zwischen den Medianwerten. Die Berechnung des arithmetischen Mittelwertes erfolgt über arithmetische Operationen (Addition und anschließend Division), die Bestimmung des Medians geschieht durch Zählen. Die Vorteile von Rangstatistiken für Daten aus den Verhaltenswissenschaften (deren Daten nur scheinbar 'numerisch' im strengen Sinne sind) liegen auf der Hand. Wir werden diesen Punkt in Kap. 3 ausführlicher behandeln, wo parametrische und nicht-parametrische Tests miteinander verglichen werden."
__
Norm. Bezugs- oder Vergleichgröße. Vieldeutiger Begriff in Wissenschaft und Leben.
__
Normalverteilung. Gaußsche Glockenkurve [1, 2, W, ]. Wichtigste Verteilung der mathematischen Statistik. Häufung der Werte in der Mitte und von da aus in der Häufigkeit abnehmend zu den Rändern hin.
|
Grimms Behauptung scheint überzogen.
__
Normalbedingungen > Normbedingungen, > Standardbedingungen.
Viele Aussagen gelten nur relativ zu bestimmten Bedingungen. Mit Normalbedingungen sind durchschnittliche, übliche oder gewöhnlich Bedingungen gemeint, wobei diese Begriff selbst auch erklärungsbedürftig sind. Liegen genaue und klar Bedingungen vor, für die eine Aussage gelten soll, kann man auch von Normbedingung oder Standardbedingung sprechen.
__
Normbedingung > Normalbedingungen > Standardbedingungen.
Hier werden genaue und klar Bedingungen formuliert, unter denen eine Aussage gelten soll. Es ist eine Regel des wissenschaftlich gesunden Menschenverstandes, dass Aussagen nur relativ zu bestimmten und auszuweisenden Bedingungen gelten. Während Mathematik, Naturwissenschaft und Technik hier ein hohes Niveau erreicht haben, sieht es in den Sozial-, Psycho- und Geisteswissenschaften unverantwortlich schlecht aus (Stand 25.07.2018).
__
Normalwert. > Referenzwert.
__
Normwerte. Werte, die nach einem bestimmten, nachvollzieh- und prüfbaren Verfahren, gewonnen und berechnet werden. In Straube (1988, Hrsg.), S.9 heißt es: "Der Ausdruck „Normwert" steht hier synonym für Normal-, Richt- oder Referenzwert, wobei sich letztere Bezeichnung durchzusetzen scheint. Es wird nachdrücklich darauf hingewiesen, daß alle Normwertangaben die intraindividuelle Situation des Gesunden und des Kranken nicht berücksichtigen können. Weiterhin muß der Arzt auf tages-, monats- und jahreszeitliche Schwankungen Rücksicht nehmen."
Hier noch eine Tabelle aus Lienert (1969, 3. A.), S. 337:
_
__
Nullhypothese [1, ] Streng formal besagt die Nullhypothese Kennwert-1 = Kennwert-2 oder x = y, wenn die Irrtumswahrscheinlichkeit einen Wert < Signifikanzniveau alpha hat unter der Voraussetzung, dass x = y gilt. Die häufigste und übliche, aber keineswegs zwingende Deutung ist: Es gibt keinen Unterschied zwischen den Kennwerten. Tatsächlich kann jede spezifizierte Hypothese zur Nullhypothese gemacht werden. Die Alternativhypothese, sofern sie spezifiziert ist, lässt sich natürlich auch berechnen. Vom praktischen Standpunkt wählt man die Hypothese zur Nullhypothese, deren Verwerfung besonders interessiert. Grundsätzlich ist zu fordern, dass alle relevanten Annahmen und Voraussetzungen, die in die Prüfung eingehen mitgeteilt und in einer Hypothesendiskussion kritisch erörtert werden.
Bortz (1985, S. 144) führt aus: "Die statistische Nullhypothese (H0) folgt ebenfalls zwingend aus der statistischen Alternativhypothese (H1). Bezogen auf den Vergleich zweier Mittelwerte sind die folgenden drei Hypothesenpaare denkbar:H1: µ0 > µ1 H0: µ0 <= µ1
H1: µ0 < µ1 H0: µ0 >= µ1
H1: µ0 =|= µ1 H0: µ0 = µ1In ähnlicher Weise formuliert man statistische Nullhypothesen zu statistischen Alternativhypothesen, die sich auf Zusammenhänge beziehen (z.B. H1: rho > 0, H0: rho <= 0).
Die Nullhypothese stellt in der klassischen Prüfstatistik die Basis dar, von der aus entschieden wird, ob die Alternativhypothese akzeptiert werden kann oder nicht. Nur wenn die Realität „praktisch" nicht mit der Nullhypothese zu erklären ist, darf sie zugunsten der neuen Alternativhypothese verworfen werden."
__
Numerologie. Nicht prüf- oder wiederholbare Methode, spezielle Bedeutungen von Zahlen zu erkennen. Auch in der modernen Wissenschaft sehr verbreitet, z. B. in der Faktorenanalyse oder Signifikanzstatistik.
__
Nutzen: mehr oder - meist - minder intersubjektive Wertzuweisung über den Gebrauchswert von Sachverhalten. Der Nutzen spielt eine große Rolle für die meisten Menschen in fast allen Lebensbereichen, aber auch in der Wissenschaft, besonders in der Ökonomie (Grenznutzentheorie) und Psychologie: Nützlich erscheint, was Bedürfnisse, Wünsche und Interessen befriedigt.
__
Objektivität := die Messung soll nicht davon abhängen, wer mißt. Allgemeiner: eine Feststellung über einen Sachverhalt heißt objektiv, wenn sie unabhängig vom Feststeller ist, also andere das Gleiche feststellen.
__
Objektivität, spezifische := Begriff des Rasch-Modells, wonach die Messergebnisse (Relationen der Messobjekte) nicht vom Messinstrument (Test, Skalierungsverfahren) abhängen darf (>Relationentreue).
__
Odds-Ratio. Das Odds Ratio gibt, um wieviel größer die Chance zu erkranken in der Gruppe mit Risikofaktor ist (verglichen mit der Gruppe ohne Risikofaktor). Das Odds Ratio nimmt Werte zwischen 0 und Unendlich an. Ein Wert von 1 bedeutet ein gleiches Chancenverhältnis. [W]
__
Ökonomie (Nutzen, Utilität). Kosten, Aufwand, Nutzen, Preis-Leistungs-Verhältnis.
__
Operationalisierung
__
Operationscharakteristik (OCR). [W]
__
Ordnung
Wichtiger allgemeiner, wissenschaftlicher und mathematischer Grundbegriff, allerdings mit unterschiedlichen Bedeutungen (Homonym). Als erste Grundunterscheidung bietet sich gewöhnlich an: in welcher Dimensionen, wobei auch dimensionslose Ordnungen möglich sind, also Ordnungen, die auf keine Dimension Bezug nehmen: Alpha, Beta, Gamma, ...; 4, 2, 9, 29, ... Ordnung heißt in den zwei vorangehenden Beispielen Anordnung, Reihenfolge. Man kann aber auch die Ordnung selbst als Dimension auffassen. Grundlegende Ordnungskriterien sind Anfang, Ende, Verlauf, Vorgänger, Nachfolger, Anzahl der Sachverhalte, Stelle (Platz, Position).
__
Orthosprache Methodisch aufgebaute Wissenschaftssprache.
__
PanelstudienDemoskopischer und soziologischer Begriff für wiederholte Erhebungen mit dem gleichen Variablensatz an gleichen Stichproben. Arminger, Gerhard (1976). Anlage und Auswertung von Paneluntersuchungen. In (134-235) Holm, Kurt (1976) Die Befragung 4. München: Francke.__
Paradigma. Charakteristische, typische und grundlegende Situation. Zweiwertiges Aussageparadima: eine Aussage ist wahr oder falsch. Dreiwertiges Aussageparadigma: Eine Aussage ist wahr, falsch oder nicht bestimmbar. > Statistisches Paradigma.
__
Parameter: kennzeichnende, charakteristische Größe, z.B. Mittelwert, Varianz, Minimum, Maximum, Spanne, Verteilung.
__
Parameter-Konstanz: kennzeichnende Größe, die für bestimmte Bedingungen gleich bleibt, z.B. Mittelwert, Varianz.
__
parametrische Verfahren. Sie gehen von bestimmten Modellannahmen, z. B. Normalverteilung oder Parameterkonstanz, aus.
__
Paranormale Fähigkeiten testen. [PDF, S. 376] [GWUP] [Randi]
__
Pfadanalyse
__
Plausibel, Plausibiliät
Ein Sachverhalt1 ist in dem Maße plausibel2 (pl), je stärker gewichtete2 Gründe1 G+ für und je schwächer gewichtete2 Gründe1G- gegen ihn angegeben werden können (Quelle). Plausibilitätsformel:
__
pl+ = (G+) / (G+ + G- )
pl- = 1 - pl+
Poissonverteilung
"Diese Verteilung wird dann angewendet, wenn ein Ereignis sehr selten eintritt. Man erhält die Poisson-Verteilung durch
einen Grenzübergang aus der Binomialverteilung. Ein klassisches Beispiel für eine Poisson-Verteilung (von S. D. Poisson
1837 eingeführt) ist der Tod von Soldaten durch Pferdehufschlag." Hirz, Helmut (2008), S. 42.
__
Polung. negative oder positive Wertzuweisung zu einem Bearbeitungssachverhalt.
Population: Gesamtheit, Ganzes.
__
Population. Grundgesamtheit, die betrachtet wird.
__
posteriori
__
Power. Auch Macht, Teststärke oder Gütefunktion genannt: Wahrscheinlichkeit dafür, dass die Nullhypothese abgelehnt wird, wenn die Alternativhypothese richtig ist. Power = 1 - b mit b als Fehler 2. Art. [W]. Programm der Uni-Düsseldorf zur Berechnung der Power. Lit: Cohen (1969).
__
Power, positiv prädiktive
__
Power, negativ prädiktive
__
Prävalenz. Epidemiologisch-statistischer Begriff, der das Verhältnis aus Anzahl der Kranken zu einem Stichtag gegenüber den Personen mit Merkmal an diesem Stichtag angibt. Anwendung: an X Erkrankte : Medikamentenanwender. Beaglehole et al. (1997, S. 30): "Die Prävalenz einer Krankheit ist die Anzahl der Krankheitsfälle in einer definierten Population zu einem bestimmten Zeitpunkt."
___
Praxeologie. Ein Name für lehr- und lernbares, begründetes praktisches Vorgehen nach Wissenschaft, Erfahrungswissen und individuell situativen Gegebenheiten. In den stark idiographisch geprägten Berufen der JuristInnen, Heilfachkundigen und PsychologInnen müssen wissenschaftliche Ergebnisse auf einen Einzelfall angewendet werden. Das ist ein bislang von den Universitäten sehr stark vernachlässigtes Gebiet, so gibt es m. W. auch keinen Lehrstuhl für idiographische Wissenschaftstheorie und Praxeologie. Hier spielen auch der berüchtigte sog. "gesunde Menschenverstand" und alltägliches Regelwissen wie praktische Vernunft eine große Rolle. > evidenzbasierte Medizin.
Querverweise:__Hake: Statistische Falschschlüsse Gruppe/Einzelfall. Nedopil: Prognosen in der Forensischen Psychiatrie.
Produkt-Moment (kleines, großes). Ausdruck aus der Matrixalgebra (z.B. Horst 1963, p. 166-171) im Umfeld multivariater Datenanalyse (z.B. Revenstorf 1980, S.28, 53, 85 ). Sei X eine Matrix, dann wird X'X das kleine (Minor) und XX' gelegentlich das große (Major) Produktmoment genannt. Die Bravais-Pearson Korrelation wird auch als Produkt-Moment-Korrelation bezeichnet. Die Encyclopedia of Statistical Science, 1986, Vol. 7, p. 292 führt aus:
__
Prognose. Wichtiger allgemeiner und wissenschaftlicher Grundbegriff, der bei seriöser Betrachtung eine Theorie voraussetzt, wobei meist Erklären und Vorhersagen zusammenhängt.
__
Prozentrang. Prozentsatz derjenigen, die einen so oder so großen Wert erreichen.
__
Prüfstatistik. > Signifikanztest. Clauss & Ebner (1970, S. 170) schreiben: "Der gesamten Prüfstatistik liegt demnach folgender Gedanke zugrunde: Dann und nur dann, wenn die Stichproben Ergebnisse liefern, die bei Gültigkeit der Ausgangshypothese unwahrscheinlich sind, verwerfen wir die Hypothese."
__
Quantile. Vielheiten, meist in gleiche Klassen zusammengefasst. Quartile und Prozentränge sind Quantile. (Beispiele hier)
__
Quartile. 1. Quartil := erstes Viertel der Stichprobe. 2. Quartil: Zweites Viertel der Stichprobe. Median := halbiert die Stichprobe, 3. Quartil =: drittes Viertel der Stichprobe. 4. Quartil = letztes Viertel der Stichprobe. Seien 100 Messwerte von 1,2,3, ..., 100 gegeben, dann gehören 1-25 zum ersten Quartil, 26-50 zum zweiten Quartil, 51-75 zum dritten und 76 bis 100 zum vierten Quartil.
__
Querschnitts-Statistik, eine Statistik, die über verschiedene Objekte im gleichen Zeitraum erhoben wird, z. B. der arithmetische Mittelwert für den durchschnittlichen Alkoholkonsum junger Frauen zwischen 21 und 25 Jahren in Bayern. > Längsschnitt.
__
Randbedingung > Bedingung.
__
Rang, Rangzahlen, Rangtests. Ränge haben nach traditioneller Auffassung nur sog. Ordinalniveau. Mit solchen Größen sind numerische Rechnungen bis auf monotone Transformationen nicht zulässig. Das wird aber von vielen sog. Rangtests missachtet. Die mathematische Statistik ist hier falsch und unsauber, wenn sie unzulässig addiert, subtrahiert, dividiert, multipliziert, ohne im Einzelfall gezeigt zu haben, dass die metrisch-numerische Handhabung zu den zulässigen ordinalen Operationen äquivalente Ergebnisse liefert.
__
RCT randomized controlled trial. Randomisierte kontrollierte Studie. Hier werden die ProbandInnen per Zufall einer Bedingung zugeordnet, um die Fehler zu minimieren. Die Untersuchungsgruppen sollten hierbei "groß" genug sein.
__
Referenzwert > wörtlich Bezugswert bzw. Bezugswertbereich, Normwert, Normalbereichswert in der Medizin (im Laborbereich gewöhnlich unzulänglich ausgewiesen). In der Psychologie werden z. B. sog. "Normen" bei Intelligenztests meist für Geschlecht, Alters- und Bildungsklassen bestimmt. In der Medizin sind naturgemäß besonders wichtige Kriterien spezielle Erkrankungen und Risiko-, aber auch ökologische Faktoren (wie z. B. Stadt, Land, Abgasbelastung, Sendemasten, Strahlungsbelastung [Elektrosmog], Chemie- oder Atomkraftwerke in der Nähe, oder Berufe, die mit bestimmten Risiken einhergehen, können sehr wichtig sein. Beispielrechnung. Setzt man bei parametrischen statistischen Verfahren eine Mindeststichprobengröße von N=30 an und geht man aus von 2 Geschlechtern, 5 Altersklassen, 3 Schulbildungsgraden, 6 ökologischen Klassen, 27 Gesundheitsfaktoren (3 Bewegungsgrade, 3 Ernährungsgrade, 3 Körperindexgrade), 100 Krankheitsklassen und 10 Risikofaktoren ergibt sich folgende Rechnung: STC [Stichprobencharakteristiken] = 30 * 2 * 5 * 3 * 6 * 27 * 100 * 10 = 48.600.000, d. h. 48,6 Millionen Laborbefunde. Das wären die theoretischen Erfordernisse, wenn jede Stichprobenkombination vertreten sein soll. Es kann natürlich durchaus vorkommen, dass nicht jede Kombination mit 30 Fällen besetzt werden kann, weil sie zu selten vorkommt.
__
Regression, Regressionsanalyse. Einfaches lineares Modell nach y = a + b*x. Ein Wert y wird auf einen Wert x zurückgeführt, z.B. das Gewicht auf die Körpergröße. Das geht auch umgekehrt, indem man die Körpergröße auf das Gewicht zurückführt. Als Maß für den Zusammenhang beider Regressionen dient der Korrelationskoeffzient, der sich auch aus der Wurzel des Produktes beider Regressionskoeffzienten (geometrisches Mittel) errechnen lässt. b ist die Steigung und heißt auch beta-Gewicht. Inhaltlich interpretiert gibt b an, in welchem Verhältnis y steigt (fällt), wenn x um eine Einheit steigt (fällt). Im Prinzip gibt es beliebige Regressionsmodelle, letztlich so viele, wie Datenmodelle und Funktionsverläufe, die sie charakterisieren. Das einfache lineare Modell ist also nur eines, wenn auch das wohl meist angewendete. Regressionen bei Wachstumsprozessen werden "linearisiert" durch logarithmieren (Bsp.). Rinne (1995), S. 415f f gibt 7 Voraussetzungen an.
__
Relation (Beziehung). Beispiele: größer, kleiner, gleich, auf, unter, gleich alt wie, besser. Grundlegender, aber wegen seiner Abstraktion schwieriger mathematischer Grundbegriff, der seit der Durchsetzung der Mengenlehre auch über diese definiert wird: Eine Relation ist eine Teilmenge der Kreuzmenge (kartesisches Produkt, Paarmenge). Sei A = {Main, Passau, Frankfurt, Donau}, so ist die Kreuzmenge, AxA, numeriert: 1. (Main, Main), 2. (Main, Passau), 3. (Main, Frankfurt), 4. (Main, Donau), 5. (Passau, Main), 6. (Passau, Passau), 7. (Passau, Frankfurt), 8. (Passau, Donau), 9. (Frankfurt, Main), 10. (Frankfurt, Passau), 11. (Frankfurt, Frankfurt), 12. (Frankfurt, Donau), 13. (Donau, Main), 14. (Donau, Passau), 15. (Donau, Frankfurt) und 16. (Donau, Donau). Relationen können hier sein: I. Fluß und Stadt gehören zusammen: 3 und 8. II. Fluß und Stadt gehören nicht zusammen: 2 und 7. III. identische Flüsse: 1 und 16. IV. Identische Städte: 6 und 11. V. Flüsse: 1, 4, 13 und 16. VI. Städte: 1, 3, 5, 6, 7, 9, 10., 11. VII. Identische Namen: 1, 6, 11, 16. VIII. schwebt über: wird von keinem der Paare erfüllt.
__
Relationentreue.
__
Reliabilität. Messgenauigkeit. In der Psychologie meist - und nicht unproblematisch - über die Korrelation geschätzt.
__
Repräsentation. Grundlegender Begriff für die Stichprobenstatistik, schließende Statistik und für die allgemeine, auch alltägliche "Testtheorie". Erheben wir Werte, so sollen diese repräsentativ für ... sein. Bei Laborwerten kann es sehr darauf ankommen, wie die Randbedingungen der Erhebung sind (z. B. Tageszeit, nüchtern). Ist ein Laborwert, z. B. Gamma-GT pathologisch erhöht, so wird man das im allgemeinen beobachten und Messwiederholungen ansetzen. Ein Gamma-GT-Wert ist sozusagen nur eine einzige Stichprobenziehung aus den praktisch unendlich viel anmutenden Möglichkeiten. Eine besondere Bedeutung hat der Begriff noch in der Messtheorie. Das Repräsentationstheorem dort besagt, dass es eine homomorphe Abbildung von einem empirischen Relativ, z. B. drei Hölzchen, in ein numerisches Relativ mit z. B. drei Zahlen so gibt, dass die Beziehungen zwischen den Hölzchen durch die Zahlen repräsentiert werden.
__
Repraesentationsproblem
Ausdruck der psychologischen Messtheorie. Coombs et al, S. 21: "(1) Das Repräsentationsproblem: Können alle Eigenschaften gemessen werden? Wenn nicht, was sind die Bedingungen dafür, daß Meßskalen eingeführt werden können? Was sind die notwendigen (oder hinreichenden) Bedingungen für die Konstruktion zum Beispiel einer Gewicht- oder Nutzenskala?"
__
Risiko: Viele Entscheidungen bergen ein Risiko, das oft unbekannt oder nur sehr ungenau zu bestimmen sind. Umso mehr werden dann Vermutungen oder Vorurteile bemüht. Durch die oft sensationsorientierten Medien wird hier viel Schaden angerichtet (> Risikowahrscheinlichkeiten). So beklagt Gigerenzer in seinen Büchern Das Einmaleins der Skepsis(2002) und Risiko (2013) fehlende Risikokompetenz - nicht nur der BürgerInnen.Risikokompetenz
Wichtigerer neuerer Begriff, für den sich Gigerenzer in seinen Büchern Das Einmaleins der Skepsis (2002) und Risiko (2013) sehr einsetzt und dafür plädiert, Risikokompetenz bereits in der Schule zu lehren. Besonders die drei Themen Gesundheitskompetenz, Finanzkompetenz und Digitale Risikokompetenz hält er mit den drei zu vermittelnden Fertigkeiten Statistisches Denken, Faustregeln, Die Psychologie des Risikos für wichtig.Risikowahrscheinlichkeiten - immer die absoluten Häufigkeiten einbeziehen
Gigerenzer warnt in seinen Büchern Das Einmaleins der Skepsis (2002) und Risiko (2013) eindringlich und überzeugend belegt davor, sich von Wahrscheinlichkeiten lenken zu lassen, weil sich viele Menschen schwer tun, verschiedene Wahrscheinlichkeiten gegeneinander angemessen und vernünftig in Beziehung zu setzen. Insbesondere warnt er vor der Angabe relativer Risikowahrscheinlichkeiten und empfiehlt stattdessen, absolute Zahlen zu verwenden. In mehr oder minder regelmäßigen Abständen werden die Frauen aufgeschreckt, wonach das Thromboserisiko durch Einnahmen von Antibabypillen wieder einmal "erschreckend" gestiegen sei. So meldete man in Großbritannien: "Die Antibabypillen der dritten Generation verdoppeln das Thromboserisiko - das heißt, sie erhöhen es um 100 Prozent". Man verschwieg, dass das Thromboserisiko der Vorgängerpille bei 1 : 7000 lag. In der neuen Generation der Antibabypille sei das Risiko auf 2 : 7000 gestiegen. Tatsächlich erhöhte sich rein rechnerisch das relative Risiko um 100% - aber bei welchen Grundraten! Die Folgen dieser "Warnung" waren verheerend (S. 17): "Diese eine Warnung führte im folgenden Jahr in England und Wales zu geschätzten 13000 (!) zusätzlichen Abtreibungen. Doch das Unheil währte länger als ein Jahr. Vor der Meldung gingen die Abtreibungsraten stetig zurück, aber danach kehrte sich dieser Trend um, und die Abtreibungshäufigkeit stieg in den folgenden Jahren wieder an. Die Frauen hatten das Vertrauen in orale Kontrazeptiva verloren, und die Pillenverkäufe gingen stark zurück."
__
ROC. Diagramm bei dem auf der Ordinate die Sensitivität und auf der Abszisse 1-Spezifität eingetragen wird. Daraus lässt sich das Verhältnis aller richtig positiven und falsch positiven Zuweisungen ersehen. [W]
__
Rohwert := scorierter Bearbeitungswert, dem Bearbeitungswert wird ein Zahlenwert zugeordnet. Wichtiger Grundbegriff für sozialwissenschaftliche Fragestellungen.
__
Sachverhalt
Allgemeiner und wissenschaftlicher Grundbegriff mit folgenden Eigenschaften:__seine Existenz kann in Bezug auf eine Welt wahr, falsch, unentscheidbar sein. Wahre und falsche Sachverhalte nennt man auch Tatsachen. er kann mit einer Ausprägungsmöglichkeit (Quantität) ausgestattet sein. die Feststellung seiner Existenz, Dauer oder Ausprägung gilt mit einer gewissen Sicherheit (Fehler).
Scheidewert. Der Median der Momentverteilung heißt Scheidewert (oder auch Medial) [PDF]
__
Schiefe := Abweichungsmaß von der Symmetrie einer Verteilung; rechtsschief, linksschief.
__
Schließende Statistik (Inferenz-Statistik).
__
Schwerster Wert. Ausdruck der älteren deutschen Statistik: mit der Häufigkeit gewichteter Modalwert. Nach Most ein Mittelwert der Lage.
__
Score := Zahlenwert, Ausdruck in der Testpsychologie. Bekommt eine ProbandIn auf die Frage, wie der Bundeskanzler der BRD heißt, z. B. einen "Wertpunkt" für die richtige Antwort, so ist dieser Wertpunkt der Rohwert-Score. > Summenscorefunktion.
__
Sensitivität. Ein Maß für die Richtig-Positiv-Zuweisungen.
Kurz und bündig: sensitiv=richtig positiv erkennt, spezisch=richtig falsch erkannt.
__
Sicherheit wichtiger allgemeiner, wissenschaftlicher und statistischer Begriff, der mehrere Aspekte betreffen kann: Genauigkeit, Gültigkeit für einen Zeitraum, einer Feststellung, Sicherheit und Güte einer Feststellung. Dahinter steckt die allgemeine und wissenschaftliche Erfahrung, dass unser Handeln fehlerträchtig und nicht immer zuverlässig ist.
__
Signifikanz. > Prüfstatistik. Zufallskritische Beurteilung von Annahmen. Der Signifikanztest errechnet, ob unter der Voraussetzung der Richtigkeit der 0-Hypothese (H0: es besteht kein statistischer Unterschied) zwischen beobachteten Werten, die 0-Hypothese bei Zugrundelegung dieser oder jener Irrtumswahrscheinlichkeit (Signifikanzniveau, oft 5%) beibehalten oder zu Gunsten der Alternativhypothese (H1) verworfen werden muss. Es wird also nicht die Wirklichkeit geprüft, sondern unter bestimmten Annahmen wird eine Annahme einer anderen Annahme gegenübergestellt, so dass nicht selten der Eindruck einer virtuellen Scheinwissenschaft entsteht. Sog. "signifikante" Ergebnisse werden auch selten in klaren - hierzulande deutschen - Sätzen interpretiert, woran man schon erkennt, wie schwach und unbedeutend (nicht signifikant ;-) solche Erkenntnisse sind. Der "Signifikanz-Popanz" ist vermutlich eine Folge der - oft genug sehr problematischen - Mathematisierung der Sozialwissenschaften. Viele denken zu Unrecht, dass nur, wo Zahlen und Formeln verwendet werden, schon Wissenschaft vorliegt; nicht selten ist es blosse moderne Numerologie und das Gegenteil von Wissenschaft. Signifikanztest.
__
Simpson's Paradoxon
__
Skalierung. Messverfahren, Messmethode für Ausprägungen von Merkmalen.
Man unterscheidet seit Stevens 1946 vier Skalenniveaus, wobei der Sprung von Ordinal- zu Intervallniveau viel zu groß und der sozialwissenschaftlichen und psychologischen Realität nicht angemessen ist. Es fehlt so etwas wie ein Quasi-Intervallniveau, wofür das Fuzzy-Konzept geeignet erscheint. Das Messproblem ist für die Sozialwissenschaften und Psychologie grundsätzlich nicht gelöst > Messen per fiat.
__
Skalierungsproblem
Ausdruck der psychologischen Messtheorie. Coombs et al, S. 22: "(4) Das Skalierungsproblem: Wie gehen wir bei der eigentlichen Konstruktion von numerischen Skalen vor? Wie verwandeln wir ordinale Information in Aussagen über Zahlen? Und schließlich, wie werden wir mit Meßfehlern fertig, die durch die Ungenauigkeit der Waage oder die Inkonsistenz der Bevorzugungsurteile auf treten können?"
__
Spannweite = Maximum - Minimum. Ist die zahlenmäßig kleinste Note in einem Zeugnis 1 und die größte Note eine 4, dann beträgt die Spannweite 4 - 1 = 3. Mit Spannweite kann auch ein Streuungsbereich gemeint sein, z. B. der 1 Sigma Bereich bei der Standard-Normalverteilung umfasst die mittleren 68%, der 2 Sigma-Bereich die mittleren 95,5% und der 3-Sigmabereich 99,7%, also fast die gesamte Verteilung.
__
Spezifität. Ein Maß für die Richtig-Negativ-Zuweisungen > Sensitivität. (Richtig-Positive-Zuweisung).
__
Spiel.
__
Spieltheorie.
__
Spurenhypothesen in der Kriminalistik, Kriminologie, Rechtsmedizin und Wissenschaft
Gigerenzer beschreibt die Fehlermöglichkeiten in der Spurenschlusskette sehr ausführlich. (226-229) am Beispiel des genetischen Fingerabdrucks. Die wichtigen zu berücksichtigenden Begriffe lassen sich der Graphik sehr schön entnehmen.
Der Urheberfehlschluss setzt falsch gleich: p(nicht Urheber | Übereinstimmung) = p (Übereinstimmung).
Der Anklägerfehlschluss setzt falsch gleich: p(unschuldig | Übereinstimmung) = p(Übereinstimmung).__
Stabil, Stabilität [numerische]
__
Standardabweichung (Symbol: Sigma) . Wichtiges Streuungsmaß. Wurzel aus der Summe der quadrierten Abweichungen der Rohwerte vom Mittelwert durch n-1 dividiert. Ohne die Wurzel ergibt sich die Varianz = quadrierte Standardabweichung.
Gegeben seien 5 ProbandInnen mit einem BAK von: 0, 0.5, 1, 1.5, 2.0. n = 5. Das arithmetische Mittel = 5/5 = 1.0. Die Standardabweichung = Wurzel {Summe [(0-1)^2 + (0.5-1)^2 + (1-1)^2 + (1.5-1)^2 + (2-1)^2]/5-1} = |
__
Standardbedingungen > Normbedingung > Normalbedingungen.
Damit sind der Regel Bedingungen gemeint, auf die "man" (Fachausschüsse, Verordnung, Gesetz) sich geeinigt hat, z.B. DIN-Normen. "Geregelt werden die Normalbedingungen in Deutschland in DIN 1343 „Referenzzustand, Normzustand, Normvolumen; Begriffe, Werte“ ... Standardbedingungen Heute sind neue Normalbedingungen als SATP für „Standard Ambient Temperature and Pressure“ üblich:
Standardtemperatur T = 298,15 K entsprechend 25 °C (analog zu STP)
Standarddruck p = 101.300 Pa = 1013 hPa = 101,3 kPa = 1,013 bar. " (Quelle: Chemie.de).
Eine Übersicht findet man bei Wikipedia unter dem Stichwort "Standardbedingungen".
__
Standardnormalverteilung.
__
Standardwert. > z-Wert.
__
Stanine. Aus standard und nine gebildete Verdichtung an den Rändern der 13 Centil-Normen auf 9 Werte: [> Normwerte]
__
Stationär, Stationarität (> Ergodizität) Parameter-Konstanz über die Zeit. Meist selbstverständlich vorausgesetzte, tatsächlich aber eine nicht unproblematische - und meist ungültige - Annahme.
Gruber (2011), S. 59f: "Unter einem stationären Prozess versteht man einen Prozess, dessen Erwartungswert und Varianz unabhängig von der Zeit, also konstant sind. Die Verteilung ist somit zu jedem (Mess-) Zeitpunkt gleich. Man könnte sagen, dass der Prozess sein Verhalten über die Zeit nicht verändert, sondern zufällig um den wahren Wert des Merkmals schwankt.
Der einfachste stationäre Prozess ist normalverteiltes Weißes Rauschen. Hier ist die zufällige [<59] Abweichung von Mittelwert normalverteilt mit Varianz Sigma2. Meist nimmt man sogar eine Standardnormalverteilung mit Erwartungswert Null und Varianz Eins an und schreibt dafür epsilont ~ W N (0;Sigma2) (Fan & Yao, 2003)."
Man differenziert auch eine sog. schwache Stationarität neben einer strikten, drei Bedingungen bei Vermerk S. 283f [Teil PDF]
Im Lexikon der Geographie von Spektrum [O] wird ausgeführt: "Stationarität, statistische Eigenschaft von zeit-varianten, raum-varianten bzw. raum-zeit-varianten Prozessen (Variablen). Eine zeit-variante Variable X(t) ist stationär, wenn ihre Verteilung zu jedem Zeitpunkt t invariant ist gegenüber t, andernfalls nennt man den Prozess nichtstationär bzw. instationär ( Abb. ). Sind nur die beiden ersten Potenzmomente (arithmetischer Mittelwert und Varianz) invariant gegenüber t, so nennt man die Variable schwach stationär. In ähnlicher Weise kann für raum- bzw. raum-zeit-variante Variablen Stationarität definiert werden. Stationäre Variablen weisen insbesondere keine Trends auf (Trendanalyse). Stationarität ist Voraussetzung zur Messung der Autokorrelation von Variablen und zur Modellierung eines Prozesses durch ein Autoregressivmodell. ..."
Kiencke, Uwe & Eger, Ralf (2008) Messtechnik. Systemtheorie für Elektrotechniker. Berlin: Springer. [3., 6.4.4, 6.1.5]
__
Statistik. Erfassen und Verarbeitung von Zählungen von bestimmten Merkmalen an bestimmten Merkmalsträgern an bestimmten Orten zu bestimmten Zeiten unter bestimmten Bedingungen. > Deskriptive S., > schließende S.. > Querschnitts-S., > Längsschnitts-S..
__
Statistik, deskriptive. Sie beschränkt sich auf die Erfassung und Beschreibung statistischer Kennwerte; nicht selten die ehrlichste und letztlich oft aussagestärkste Form der Statistik.
__
Statistik, mathematische. Hochentwickelte, komplizierte, umfangreiche und spezialisierte mathematische Fundierung der Statistik. Für mathematische Laien teilweise sehr schwer bis gar nicht verständlich, besonders was die Anwendung und auch den wirklichen Nutzen bezüglich vieler Annahmen betrifft. Teilweise kann man den Eindruck gewinnen, dass sich die Aussagen nur in virtuellen Welten jenseits unserer Wirklichkeit bewegen. Viele ausgearbeitete Modelle beruhen auf Voraussetzungen, die - besonders in der sozialwissenschaftlichen Forschungspraxis - nicht erfüllt werden (Intervallniveau der Daten, Normalverteilung, Zufallsauswahl, Parameterkonstanz). Eine wirklich konsequente Anwendung der Mathematik würde wahrscheinlich mehr als 90% der Veröffentlichungen gar nicht zulassen.
__
Statistikpakete/ Statistikprogramme.
__
Statistik, schließende. > Inferenzstatistik. Die schließende Statistik macht Aussagen - teilweise auch sehr fragwürdige oder nichtssagende wie z. B. "signifikant" - über die Bedeutung der deskriptiv erhaltenen Kennwerte mit Hilfe statistischer Modellannahmen.
__
Statistische Hypothesen
Stegmüller (1973), S. 85, behauptet: "Statistische Hypothesen sind, wie bereits früher erwähnt, stets Verteilungshypothesen." Dagegen sprechen die zahlreichen verteilungsfreien statistischen Verfahren. > Statistische Schlussweisen.
__
Statistische Kennwerte sind z. B. Median, Quartile, Minimum, Maximum, Spanne; Mittelwert (Typ), Standardabweichung; relative Häufigkeiten, Quantile, Prozentränge, Verteilung und Verteilungskennwerte (z. B. Schiefe, Exzess, Gipfel); Stichprobe, Stichprobenumfang; Population; Erhebungszeitraum; Reliabilität und Validität, Sensitivität und Spezifität; cut-off Werte mit Erläuterungen und Begründungen. Hinzu kommen besonders bei psychologischen Tests auch abgeleitete Normen wie z. B. z-Werte = (Rohwert - Mittelwert) / Standardabweichung, Stanine oder T-Werte.
__
Statistisches Paradigma. In der üblichen, an mathematischer Wahrscheinlichkeitstheorie und Statistik orientierter Einstellung geht man oft - Ausnahme z.B. voraussetzungsreiche Varianzanalyse - von einem Wahrscheinlichkeitsraum- und Modell aus, in dem die Parameter zufällige Prozesse festgelegt werden. In den empirischen Wissenschaften geht es aber gewöhnlich um systematische Einflüsse, bei denen der Zufalls zwar auch eine Rolle spielt, aber eben nur eine Rolle. Ein empirisch orientiertes statistisches Paradigma muss also von einem grundlegende anderen Ansatz ausgehen, nämlich von der paradigmatischen Grundgleichung E = f( S, Z). Ergebnisse (E) von Beobachtungen oder Experimenten führen zu Hypothesen, wie diese Ergebnisse erklärt werden können. Das grundlegende statistische Paradigma sieht vor, dass es systematische (S) und zufällige (Z) Einflüsse gibt. Es stellt sich für den Statistiker daher immer das Problem, zu entscheiden, welcher Anteil der Ergebnisse auf systematische Einflussgrößen (S) und welcher Anteil auf zufällige Einflüsse (Z) in welchem Wirkungszusammenhang (f) zurückgehen, also erklärt werden können.
___
Statistische Schlussweisen.
Dieter Rasch (1978, S. 193-243) beschreibt im 7. Kapitel "Statistische Schlußweisen" seines Buch folgende:7.1 Grundgesamtheit und Stichprobe (S. 193).__
7.2. Formen des induktiven Schließens (S. 198).
7.2.1. Bayessches Vorgehen (S. 199)
7.2.2. Empirisches Bayessches Vorgehen (S. 201)
7.2.3. Fiduzialkonzept (S. 202)
7.2.4. Klassisches Vorgehen (Häufigkeitsvorgehen) (S. 203)
7.3. Parameterschätzung (S. 206)
7.3.1. Wünschenswerte Eigenschaften von Schätzfunktionen (S. 206)
7.3.2. Maximum-Likelihood-Methode (S. 217)
7.3.3. Methode der kleinsten Quadrate (S. 219)
7.3.4. Minimums-Methode (S. 222)
7.4. Konfidenzbereiche (S. 224)
7.5. Statistische Tests (S.228 )
7.6. Beziehungen der Statistik zur Spiel- und Entscheidungstheorie (S. 238)
7.6.1. Spieltheorie (S. 239)
7.6.2. Statistische Entscheidungstheorie (S. 241)
Stetig. Grundlegender mathematischer Begriff mit der alltagssprachlichen Bedeutung einen fortgesetzten Ununterbrochenen, ohne Lücke. Gegensatz diskret.
__
Stichprobe. Teil eines Ganzen. Meist ist angestrebt, dass der Teil das Ganze repräsentieren soll und der Teil fürs Ganze stehen kann (pars pro toto). Hierbei entsteht gewöhnlich ein Stichprobenfehler.
__
Stichprobenauswahlverfahren. Der Sinn einer Stichprobe ist die Repräsentativität für eine Gesamtheit.
__
Stichproben-Kennwerte. Auch Stichprobencharakteristik. Zu jeder wissenschaftlichen statistischen Normwert-Angabe gehören ihre Bedeutung und die charakteristischen Kennwerte, sowie die Bezugsgruppe, d. h. die Stichprobe, Zusammensetzung der Stichprobe, das Auswahlverfahren und die Population, der Zeitraum der Erhebung, die Größe der Stichprobe und der Population. Genau diese Angaben werden von der Labormedizin so gut wie nie ausgewiesen (Stand 10/ 2007).
__
Stichprobenumfang. Anzahl der Messobjekte in der Stichprobe.
__
Stochastik. Lehre von den Zufallserscheinungen und ihrer mathematisch-statistischen Behandlung.
__
subjektive Wahrscheinlichkeitstheorie. Eine gewisse Nähe gibt es zur Nutzen- und Entscheidungstheorie.
Vertreter (Auswahl): Bayes, de Finetti, Fishburn, Kleiter, Ramsey, Savage, Wieckmann.
__
Summen-Score-Funktion. Die blosse Anzahl im Sinne des positiven Kriteriums bearbeiteter (meist "gelöster") Aufgaben dient als (Ausgangs-) Maß für eine Ausprägung.
__
Surveillance (Beobachtung, Überwachung), Ausdruck der Gesundheitsberichterstattung.
__
Syllogismus, statistischer. Wenn a aus A mit p1 m zeigt, dann sagt man, a habe mit der Wahrscheinlichkeit p1 das Merkmal m.
Wenn a aus A mit p1 m zeigt und und a aus B mit p2 m zeigt und p1 ungleich p2 ist, dann gibt zwei unterschiedliche Wahrscheinlichkeitsaussagen bezüglich der Merkmalszuordnung m. Viele WissenschaftstheortietikerInnen sehen hier einen Widerspruch. Ich kann hier aber keinen sehen. Nicht, wenn A und B verschiedene Stichproben oder schon gar nicht, wenn A und B aus verschiedenen Populationen stammen.
___
Test: Kontrolliertes und fundiertes Prüfverfahren mittels einer Stichprobe und Kennwerten. Stichprobe zur - meist quantitativen - Schätzung eines Sachverhaltes. Ein Fahrtest ist eine Stichprobe aus dem Fahrverhalten einer Person. Aus der Fahrprobe schließt man auf die technische Kraftfahreignung.
__
Testen: Kontrolliertes und fundiertes Prüfen mittels einer Stichprobe und Kennwerten
__
Testgütekriterien. > Objektivität, > Reliabilität, > Validität, > Utilität, > Ökonomie.
__
Teststärke (Power). "Die Teststärke gibt an, mit welcher Wahrscheinlichkeit ein Signifikanztest zugunsten einer spezifischen Alternativhypothese H1 (z. B. „Es gibt einen Unterschied“) entscheidet, falls diese richtig ist. (Die abzulehnende Hypothese wird H0, die Nullhypothese genannt.). Die Teststärke hat den Wert 1-?, wobei ? die Wahrscheinlichkeit bezeichnet, einen Fehler 2. Art zu begehen." [W071027]
__
Testtheorie: Theorie zur Konstruktion, Auswertung und Beurteilung von Tests.
__
Theorie allgemeines oder wissenschaftliches sprachliches Modell der Wirklichkeit, das besagt, wie sich die Wirklichkeit unter diesen oder jenen Bedingungen verhält, wie sie funktioniert.
__
Transformation. Umwandlung von Werten, z. B. y = ax + b. Hierbei kann es sehr wichtig sein, die Relationentreue zu wahren. Achtung: In der Psychologie gibt es sehr merkwürdige Transformationen, die, bei Lichte betrachtet, Datenfälschungen sind, wenn z. B. nicht normalverteilte Rohwertdaten in Quantile gewandelt und dann so zurückgerechnet werden, als ob sie normalverteilt wären (z. B. fragwürdiges McGall-Verfahren). Das gilt auch für die meisten Faktorenanalysen, weil die Kommunalitätsmatrizen den ursprünglichen Korrelationsmatrizen nicht mehr ähnlich sind.
__
Transparenz. Klarheit, Durchsichtigkeit, Verständlichkeit, Nachvollziehbarkeit.
__
Trennschärfe wie gut trennt eine Methode zwischen Merkmalsträgern.
__
T-Werte.T-Wert-Formel 112 nach Lienert (1969, S. 331)
Die T-Werte werden zur "Normalisierung" nicht normalverteilter Daten nach einem dubiosen Verfahren von McCall verwendet: erst werden von der nicht-normalen Verteilung Prozentränge berechnet, also eine Flächentransformationswerte vorgenommen, sodann werden diese in Standard-Äquivalente umgewandelt (Darstellung aus Lienert 1969, S. 341):
Das Wesentliche und Problematische der "Normalisierung" bei anormalen Verteilungen wird von Lienert offenbar erkannt, aber gleichzeitig in den Fußnotenbereich (S. 331) verbannt. Das Entscheidende ist hier natürlich, dass durch diese Transformation alle nicht-normalverteilten Rohwerte verändert werden, manche werden mehr oder minder stark größer, andere kleiner. Begründet wird dieses Vorgehen so gut wie nie. Implizit ist indessen klar, man unterstellt eine Daten-Theorie der Normalverteilung und "korrigiert" die empirischen Daten daraufhin. Es handelt sich hierbei meist um eine willkürliche Datenmanipulation vom Typ Neu-Skalierung.
__
Verteilungskennwerte (z.
B. Median, Mittel, Streuung, Schiefe, Exzess,
Gipfel, Verlauf).
__
Vertrauensintervall (Konfidenz).
[W]
__
Vieldeutigskeitssatz.
Ähnlich wie der wahre Wert einer Messung ist die Wahrscheinlichkeit
eines Ereignisses letztlich unbekannt.
Als eine beste Näherungsschätzung wird in der Statistik
meist die relative Häufigkeit eines Ereignisses für den Wahrscheinlichkeitsparameter
genommen, wobei sich gewöhnlich für den Fall unendlich vieler
Realisationen - die in praxi natürlich nicht möglich sind - die
Identität von Näherungs- und wahrem Wahrscheinlichkeits-Wert
ergibt. Praktisch heisst das: je größer der Stichprobenumfang
oder je mehr Messungen vorliegen, desto mehr nähert sich der empirische
Wert dem wahren Wert an. In der Mathematik gilt dieser Grundbegriff seit
der Axiomatisierung 1933 durch Kolmogoroff
geklärt. Überblick zu den verschiedenen Wahrscheinlichkeitsbegriffen
nach Steinbring (1980), S. 115:
Wahrscheinlichkeitsmodell-Information
__
Wahrscheinlichkeit,
objektive. [ > relative Häufigkeit]
Die "objektive" Wahrscheinlichkeitstheorie sucht unter bestimmten Annahmen
(Modellen), andere Annahmen auf ihre statistische Schlüssigkeit hin
zu überprüfen, was sich nicht selten in völlig nichtssagenden
Signifikanzaussagen erschöpft. Grundlage ist die Laplace Definition
der Wahrscheinlichkeit als Bruch aus der Anzahl der günstigen Fälle
durch alle möglichen Fälle. Eine Axiomatisierung gelang 1933
Kolmogoroff.
__
Wahrscheinlichkeit,
subjektive. [> Bayes]
__
Wahrscheinlichkeit, totale.
__
Welten.
__
Wert. > Größe,
Zufallsgröße.
1) Zahlenwert im Rahmen einer Messung. W = f(F1, F2,
..., Fi, ... Fn), f(Z1, Z2,
..., Zi, ... Zn), wobei F hier kausale, korrelative
und Z "zufällige" Einflüsse bedeuten sollen. 2) anderer Wert,
den ein Sachverhalt relativ für einen Bewertenden hat (z. B. Wind
für einen Segler, Regen für einen Bauern, Musik und Alkohol für
einen Feiernden). [>
werten]
__
Wert, richtiger. Beste bekannte
empirische Näherung an den gedachten wahren Messwert.
__
Wert, wahrer. Idee, dass ein Zustand
oder Merkmal zum Zeitpunkt der Messung einen wahren Messwert hat, den es
"bestmöglich" zu schätzen gilt. Fiktive Größe und
nicht immer hinreichend klare Vorstellung, repräsentier- oder schätzbar.
Beispiel: Zu messen sei das Volumen einer Streichholzschachtel. Hierbei
wird man mehrfache Messfehler begehen. Einmal weil die Ausdehnungen (Länge,
Breite, Höhe) nicht streng starr geradlinig sind. Zum andern weil
man in aller Regel bei jeder Messung auch Messfehler macht. Trotzdem ist
hier die Idee, dass die Streichholzschachtel zu einem bestimmten "Zeitpunkt"
- einen fiktive und genau betrachtet unklare Vorstellung - einen wohlbestimmten
Volumenwert hat, plausibel und intuitiv unmittelbar einsichtig.
__
Wertzuweisung. Bestimmten Sachverhalten
können Werte zugewiesen werden, z. B. "nützlich für ...",
"gesund", "krank", "Symptom für x". Die Wertzuweisung kann mehr oder
minder begründet und methodisch ausgewiesen sein oder willkürlich,
"per fiat" nach gutem Glauben oder Fachkompetenz erfolgen.
__
Wette.
__
Wissenschaftliches
Arbeiten.
__
Würfelspielparadoxon. Székely
(1990, S. 12)
__
x := Hier Zeichen für einen empirischen
Messwert.
__
Zahlen.
__
Zeit. Wichtiger, doch letztlich bezüglich
seiner Bedeutung oft sehr unklarer Grundbegriff in der Statistik. > Die
Zeit als Variable.
__
Zeitpunkt. Fiktive und - genau betrachtet
mitunter - problematische Vorstellung einer "Momentaufnahme". Tatsächlich
dürfte in den meisten Fällen der "Moment" nur ein ungefähres
Zeit-Intervall bzw. einen "Zeitraum" bedeuten. Beispiel: "Tages-Temperatur".
Ein "Tag" besteht aus 8-24 Stunden (Arbeitstag, astronomischer Tag einschließlich
der Nacht), 1440 Minuten oder 86400 Sekunden. Die Temperatur dürfte
im Regelfall über die Zeiten schwanken; zudem hängt sie auch
vom Ort der Messungen ab.
__
Zeitreihe Anordnung der Daten nach der Zeit, allgemeiner Ordnungsreihe
__
Zeitreihenanalyse.
Sie wird meist verkürzt auf Autokorrelation reduziert dargestellt,
nicht selten auch unkritisch. Dabei handelt es sich schlicht und einfach
um Daten oder Werte, die zeitlich geordnet auf einer Zeitachse nur dargestellt
werden. Die Zeit selbst ist ja in der allermeisten Fällen keine Variable
(> Die Zeit als Variable).
Es werden eine ganze Reihe von Modellen unterschieden:
des Auftretens von l (a) gleich 1/2 ist und (b) sich nicht ändert,
wenn man vermöge einer Auswahlregel zu einer Teilfolge xm1,
xm2 ... übergeht, ... " Es wird weiter ausgeführt,
dass sich die von Mises Definition als ungeeignet erwies ( J. Ville
1939). Auch der neue Versuch Kolmogorovs 1965 sei gescheitert. "Daher
wird von P. Martin Löf vorgeschlagen, als z. solche unendlichen 0-1-Folgen
u bezeichnen, die einen universellen wahrscheinlichkeitstheoretischen Sequentialtest
bestehen. Dann lässt sich beweisen, daß so definiert z,e
0-1-Folgen nicht Turing-berechenbar sind.
In den Naturwissenschaften wird Z. im Gegensatz zu kausal determinierten
und voraussagbaren bzw. berechenbaren Ereignissen verstanden (>Determinismus,
>Kausalität). In der klassischen Physik wird von einem vollständig
determinierten Naturgeschehen ausgegangen. Daher sind dort gewisse Z.e
ausgeschlossen; nur epistemische Zufälligkeit in Abhängigkeit
vom Kenntnisstand eines Beobachters ist zugelassen, So erscheinen z, B.
die Bewegungen einzelner Atome in einem Gasgemisch z., sind aber nach klassischer
Auffassung vollständig determiniert. Ihre Eigenschaften werden durch
Z.svariablen quantifiziert. Eine Z.svariable ist eine numerische Funktion
X, die jedem z. gewählten Element w einer Ereignismenge eine Zahl
X(w) zuordnet. Dabei kann es sich z. B. um die Augenzahl eines Würfels
handeln. Elementen von Ereignismengen können mehrere Z.svariablen
zugeordnet werden (z. B. Gewicht, Geschwindigkeit und Rotationsenergie
von Gasmolekülen). Ihre Linearkombinationen, Produkte und Verhältnisse
ergeben wieder Z.svariablen. ...."
Zum Verständnis braucht man den Begriff der normierten Boolschen
Algebra. Zunächst die Boolsche Algebra:
Und schließlich:
__
Zufall und Gesetz bei der Entstehung
des Lebens
Eigen, Manfred (1983) Zufall und Gesetz bei der Entstehung des Lebens.
Aulavorträge Hochschule St. Gallen, S. 11f:
"Mit Hilfe von Spielregeln werden Gesetzmässigkeiten
festgelegt. Diese Regeln variieren, je nach dem welcher physikalische,
chemische oder biologische Vorgang simuliert werden soll. Der Ablauf des
Spiels ist durch das Würfeln und die Anwendung der geltenden Spielregeln
auf die jeweils getroffene Kugel gekennzeichnet.
Beginnen wir mit einem ersten Spiel, das in sehr
anschaulicher Weise die Natur des statistischen Gleichgewichts in Physik
und Chemie beschreibt. Es wird mit zwei verschiedenen Materieteilchen,
die durch schwarze und weisse Kugeln repräsentiert werden, gespielt.
Wir gehen von einem Spielbrett aus, das mit schwarzen und weissen Kugeln
in willkürlicher Mischung komplett besetzt ist. Daneben gibt es noch
ein Reservoir, das eine grosse Zahl von schwarzen und weissen Kugeln enthält.
Die Spielregel ist sehr einfach und lautet: Die jeweils getroffene Kugel
wird durch eine Kugel der anderen Farbe ersetzt. Haben wir zum Beispiel
eine schwarze Kugel erwürfelt, so [>12] ausgetauscht. Treffen wir
dagegen eine weisse Kugel, so wird daraus eine schwarze. Es ist dabei übrigens
völlig gleichgültig, von welcher Kugelverteilung man ausgeht,
d.h. ob man ausschliesslich weisse oder nur schwarze oder irgendein Gemisch
beider Arten zu Beginn des Spieles auf dem Spielbrett hat. Nach einigen
Spielrunden, und zwar schon nach etwa 64 Zügen — wir bezeichnen diesen
Zeitabschnitt als eine Generation, da jedes Feld einmal die Chance hat,
erwürfelt zu werden — sind immer beide Kugelfarben im zeitlichen Mittel
in gleicher Menge auf dem Spielbrett vertreten.
In einem solchen Spielablauf wird der Vorgang der
Gleichgewichtseinstellung demonstriert. Das Ergebnis ist ganz einfach zu
verstehen. Sind beispielsweise sehr viel mehr schwarze Kugeln auf dem Spielbrett,
so ist auch die Wahrscheinlichkeit sehr viel grösser, dass beim nächsten
Wurf eine schwarze Kugel getroffen und in eine weisse umgewandelt wird.
Jeder Überschuss der einen Sorte gegenüber der anderen gleicht
sich dadurch sehr bald aus. Mit anderen Worten: Jede Abweichung von der
Gleichverteilung der Farben ist Ursache für einen Ausgleich. Dem entspricht
in der Chemie das Massenwirkungsgesetz für zwei Substanzen, die die
gleiche freie Energie besitzen."
Sekundärquelle: Materialien
zur Kausalität in der Naturwissenschaft und Technik.
Eigen: https://www.youtube.com/watch?v=nFCwr1btiSs
Eigen: https://www.youtube.com/watch?v=NTVw-ongVyw
__
Zureichender Grund
Grundprinzip, das kurz und bündig verlangt: nichts ohne Begründung.
Leibniz: „Im Sinne des zureichenden Grundes finden wir, daß keine
Tatsache als wahr oder existierend und keine Aussage als wahr betrachtet
werden kann, ohne daß ein zureichender Grund vorhanden wäre,
warum es so ist und nicht anders" (G. W. LEIBNIZ, Monadologie, § 33,
Nr. 32)."
__
Zuverlässigkeit. > Reliabilität.
In der psychologischen Testtheorie meist Messgenauigkeit.
__
z-Werte = (Rohwert - Mittelwert) / Standardabweichung.
__
IP-GIPT Links:
irs: 29.08.2021 - 03.09.2021 Rechtschreibprüfung