Internet Publikation für Allgemeine und Integrative Psychotherapie
(ISSN 1430-6972)
IP-GIPT DAS=20.09.2002 Internet-Erstausgabe, letzte Änderung: 18.01.20
Impressum: Diplom-Psychologe Dr. phil. Rudolf Sponsel Stubenlohstr. 20 D-91052 Erlangen
Mail: sekretariat@sgipt.org_ Zitierung & Copyright
Anfang Verwahrl.Fb.Augsburg.Schulpsych._Datenschutz_ Überblick _ Relativ Aktuelles _ Rel. Beständiges _ Titelblatt _ Konzept _ Archiv _ Region _ Service iec-verlag _Mail: _ sekretariat@sgipt.org _ Zitierung & Copyright
__Wichtige Hinweise zu Links und Empfehlungen
Willkommen in unserer Internet-Publikation für allgemeine und integrative Psychotherapie, Abteilung Wissenschaftstheorie, Methodologie und Statistisch-Mathematische Methoden, Bereich Faktorenanalyse, und hier speziell zu:
Wichtige Berichtigung und Neuinterpretation der Daten vom 1.5.2001Skalierung, Korrelation, Eigenwertanalyse, "Therapie" der negativen Eigenwerte und Faktorenanalysen der kompetenten BeurteilerInnen Verwahrlosungs-Item-Liste der Augsburger SchulpsychologInnen
von Rudolf Sponsel, Erlangen
auf Basis der Explorationen, empirischen Ausarbeitungen und Erhebungen (Version 1999) der Augsburger Schulpsychologischen Projektgruppe
Es geht hier nicht um Verwahrlosungsforschung und auch nicht um eine explorative Faktorenanalyse, sondern um eine numerische und methodologische Analyse am Beispiel Merkmale von Verwahrlosung aus schulpsychologischer Sicht. Die empirischen Daten dienen einzig und allein dazu, zu demonstrieren, wie auch in der Psychologie durch sinnvolle inhaltliche Überlegungen empirisch fundierte Korrelationsmatrizen erzeugt werden können, die man numerisch-linear-algebraisch gut begründet durch Faktorenanalyse reduzieren kann, weil sie entsprechend viele Kollinearitäten (Eigenwerte nahe 0) enthalten. Die von den Augsburger SchulpsychologInnen aufgrund inhaltlicher Überlegungen konstruierte Itemliste liefert nach angemessener und arithmetrisch begründeter Scorierung der Verbal- Ausprägungen von 29 kompetenten BeurteilerInnen eine 46*46 Korrelationsmatrix, die stichprobenumfangbedingt 18 glatte Kollinearitäten (linare Abhängigkeiten) enthält. Diese Matrix enthält als einen mathematischen Artefakt 17 Gesetzmäßigkeiten vom Typ linearer Abhängigkeit und Kollinearität, weil der Stichprobenumfang kleiner als die Variablenanzahl ist (46-29). Tatsächlich enthält sie bei einem 1% Kriterium in Bezug auf die Stichprobengröße (0,29) eine vollständige (Eigenwert=0) und 6 echte empirische Fast-Kollinearitäten inhaltlicher Bedeutung. Bevor jedoch eine Hauptkomponentenanalyse R = F*F' gerechnet werden könnte, müssen die durch Rundungsfehler und Rechnerungenauigkeiten (trotz - oder wegen des - numerischen Coprozessors) zustande gekommenen - extrem geringfügigen, aber dennoch gefährlichen - negativen Eigenwerte "beseitigt" werden, sonst kommt es bei der multivariaten Weiterverarbeitung zu extremen Entgleisungen, wie gezeigt wird. Das ist nun ein zweites Positivbeispiel mit dem ich die kritische Dokumentation beginnen wollte, um zu demonstrieren, wie es gemacht werden könnte und Sinn macht. Eine Kollinearität entdecken bedeutet eine lineare Abhängigkeit, einen quasi-funktionalen Zusammenhang und damit eine Gesetzmäßigkeit entdecken, worum es der Wissenschaft gehen sollte. Das Definieren und Beschließen von Gesetzmäßigkeiten ist ein wissenschaftsfremder Grundwiderspruch in sich. |
Projektbeschreibung und Forschungsziele (Interpretation Sponsel)
Interpretation der Forschungsziele der Augsburger SchulpsychologInnen
In meinem Verständnis geht es bei dem Projekt der Augsburger SchulpsychologInnen
darum, Verwahrlosungsmerkmale und ihre Ausprägung bei SchülerInnen
zu erkennen, um angemessene Maßnahmen, sofern möglich, einzuleiten.
Zunächst ist also ein valides, reliables und praktisch signifikantes
Instrument zu entwickeln, das eine solche Diagnostik ermöglicht. Nutzen
und Vorteile liegen auf der Hand:
Die Item-Merkmals-Liste der Augsburger SchulpsychologInnen bietet
nun außerordentlich vielfältige Ansätze zur praktischen
und methodologischen Anwendung:
Die
Ziele dieser, meiner Arbeit
Es geht um die Dokumentation des Sinn und Unsinns von
Faktorenanalysen. Faktorenanalysen sind mathematisch nur dann gerechtfertigt,
wenn eine Korrelationsmatrix sehr kleine Eigenwerte nahe 0 produziert.
Was "nahe" 0 ist, hängt auch von der Größe (Ordnung) der
Matrix ab. Da bei Korrelationsmatrizen die Summe der Eigenwerte immer die
Ordnungszahl ergibt, können einfache prozentuale Überlegungen
Größenordnungsorientierungen geben. In einer 10*10 Matrix ergibt
die Summe der Eigenwerte den Betrag 10. Zehn Prozent davon wäre 1,
5% führte zu 0,5 und 1% ergäbe einen Eigenwertbetrag von 0,10.
In einer 20*20 Matrix wäre es doppelt so hoch. Bei einer 46*46 Matrix
ergibt die Summe der Eigenwerte 46. Da die Matrix eigentlich nur bis zum
Rang 29 (Stichprobenumfang) echt informativ ist und der Rest aus mathematischem
Artefakt entsteht, sollte für die Beurteilung, was ein kleiner Eigenwert,
"nahe" bei 0 ist, am Kriterium 29 entschieden werden. 1% von 29 wäre
der Eigenwertbetrag 0,29. Bezogen auf diesen Kriterien enthält die
Augsburger-Schulpsychologen-Matrix 6 echte empirische Kollinearitäten,
die zu erforschen sicher sehr reizvoll ist.
Daher erscheint es mir auch gerechtfertigt und sinnvoll, diese Arbeit sehr gründlich und detailreich, Schritt für Schritt zu dokumentieren. Ich denke, es ist eine gute Möglichkeit, den praktischen Sinn und Nutzen von Statistik, Meßtheorie (praktischer "Arithmetrik"), numerischer Mathematik und Faktorenanalyse nach den szientistischen Irrungen und Wirrungen aufzuzeigen, wenn die inhaltspsychologischen Kompetenzen stimmen. Ein bißchen meine ich: wenn kompetent psychologisch gedacht wird, macht die Statistik und Mathematik immer mit, aber sie kann kein Ersatz für fehlendes inhaltspsychologisches und kompetentes Denken sein. So gesehen meine ich: die Verwahrlosgungs- Item- Merkmalsliste der Augsburger SchulpsychologInnen ist auch ein Erfolg inhaltlichen Denkens. |
Die Itemliste für die kompetenten BeurteilerInnen (Version Sommer 1999)
"Welche der vorliegenden Fragen charakterisieren den Begriff der Verwahrlosung
am ehesten entsprechend Ihrer Erfahrung?"
UV | Unterrichtsverhalten |
01uv | Stört den Unterricht |
02uv | Zeigt sich desinteressiert am Unterricht und beteiligt sich nicht - und zwar unabhängig vom jeweiligen Fach oder dem jeweiligen Lehrer (auch im Sport, Werken oder Kunst) |
03uv | Zeigt selbst bei motiviert begonnener Tätigkeit keine Ausdauer |
04uv | Schimpft überdurchschnittlich oft und heftig auf Schule und Lehrer |
05uv | Läuft bei geringfügigen Frustrationen oder Konflikten einfach davon |
06uv | Neigt zu unüberlegtem, kurzschlüssigem Handeln ohne an die Konsequenzen zu denken |
07uv | Erscheint häufig zu spät zur Schule, bummelt auf dem Schulweg |
08uv | Schwänzt die Schule (stunden- bzw. tageweise ) |
09uv | Fehlt unentschuldigt über Wochen. |
10uv | Hausaufgaben werden sehr selten gemacht. |
11uv | Bringt Arbeitsmittel nie vollständig mit |
12uv | Beschädigt oder beschmutzt Objekte (Schulmobiliar, Wände, Geräte...) |
EE | Eltern und Erziehung |
13ee | Eltern schildern ihr Kind als extrem und generell ungehorsam und oppositionell |
14ee | Eltern erscheinen hilflos in ihrer Erziehungsaufgabe |
15ee | Das Kind ist vermutlich gegenüber den Eltern ungehorsam und oppositionell |
16ee | Es fehlen Hinweise, daß die Eltern aktiv die Führung übernehmen und das Kind beaufsichtigen. |
17ee | Eltern reden abfällig und anklagend über ihr Kind |
18ee | Eltern bleiben die Begründung für Schulversäumnisse schuldig. |
19ee | Eltern beschönigen das eigene Erziehungsverhalten |
20ee | Eltern haben bereits mehrere Beratungsstellen erfolglos aufgesucht |
21ee | Hinweise fehlen, dass die Eltern sich um ihr Kind kümmern |
22ee | Eltern dulden den Genuss von Tabak und Alkohol |
23ee | Kontaktaufnahmen durch den Lehrer bleiben von Seiten der Eltern unbeantwortet. |
24ee | Eltern tolerieren den Konsum von Sex und Gewalt über die Medien |
25ee | Eltern beschönigen das abweichende Verhalten des Kindes |
KE | Die Beziehung des Kindes zu seinen Eltern |
26ke | Erzählt von seinen Eltern mit wenig Achtung |
27ke | Berichte der Kinder lassen Hinweise auf verlässliche Bindungen an erwachsene Bezugspersonen vermissen. |
28ke | Das Kind schildert seine Eltern als desinteressiert an seiner Person und an seinem Verhalten |
KK | Die Beziehung zu anderen Kindern |
29kk | Schließt sich an Stärkere an, von denen es sich Vorteile verspricht |
30kk | Hat Anschluss an Jugendbanden, hat "schlechten Umgang" |
31kk | Beschuldigt oft andere |
32kk | Macht andere für seine eigenen Fehler verantwortlich |
33kk | Mitschüler berichten über weite Verhaltensspielräume des Kindes (z. B.: lange Ausgehzeiten, viel Taschengeld, kaum Kontrolle ) |
KP | Die eigene Person des Kindes |
34kp | Das Kind besitzt ein großes Repertoire an Ausreden, Vermeidungsstrategien und Entschuldigungen |
35kp | Das Kind reagiert oppositionell, wenn seine Ausreden hinterfragt werden |
36kp | Das Kind ist vordergründig kooperativ, geht auf Abkommen ein und sagt "ja", um in Ruhe gelassen zu werden |
37kp | Das Kind übernimmt gerne Aufgaben, ohne sich in irgendeiner Form dafür verantwortlich zu fühlen |
38kp | Das Kind fühlt sich schnell angegriffen |
39kp | Es zeigt auffallend wenig Einfühlungsvermögen |
40kp | Es reagiert mitleidslos |
41kp | Das Kind fühlt sich schnell ungerecht behandelt |
42kp | Es reagiert aggressiv gegen Personen |
43kp | Das Kind kann weder aus eigener Erfahrung noch aus der Erfahrung anderer im sozialen Bereich lernen |
44kp | Reaktionen auf Lob und / oder Tadel bleiben aus. |
45kp | Es ist bereits straffällig geworden / hatte Polizeikontakt |
46kp | Das Kind kann sein eigenes Verhalten nur schlecht reflektieren |
Die SchulpsychologInnen haben eine Stichprobe von sage und schreibe
29 kompetenten BeurteilerInnen zusammen bekommen, die gebeten wurden, die
einzelnen Items im Hinblick auf den in ihnen enthaltenen Verwahrlosungsanteil
nach folgenden fünf Verbalausprägungen einzuschätzen.
Das Item unterscheidet in Hinblick auf Verwahrlosung |
nicht | kaum | mittel | gut | sehr gut |
Es stellt sich nun das Problem, wenn gerechnet werden soll, wie diese Verbalausprägungen vernünftig und begründet in Zahlen umgesetzt werden können. Es ist wichtig, zu erkennen, daß es hier im Grunde potentiell unendlich viele Lösungen gibt. Die Aufgabe, welche Lösungen beste, gute, befriedigende oder ausreichende genannt werden dürfen, hätte von der psychologischen Meß-, Skalierungs- und Testtheorie gelöst werden sollen. Leider ist das Problem bislang nicht gelöst und wenn man methodologisch nicht umdenkt, wird eine Lösung auch nicht so schnell zu erwarten sein.
Die Gretchenfrage
der Meß- und Skalierungstheorie lautet:
Welche Zahlenwerte dürfen wir den Verbalausprägungen
"nicht, kaum, mittel, gut, sehr gut" zuordnen.
Nun aus Gründen der Sprachgewohnheiten und der Vernunft,
habe ich heuristisch folgende Zuordnungen vorgeschlagen:
Arithmetrische Überlegungen (Querverweis: "Arithmetrik")
(1) Für die Ausprägung "nicht" bietet sich
die Zahl "0" als natürlicher Nullpunkt an.
(2) Der Abstand zwischen "nicht" und "kaum" ist gering. (3) Für die kleinste quantitativ-inhaltliche Einheit "kaum" empfiehlt sich die natürliche Zahl 1, auch weil von dieser am einfachsten Vielfache gedacht oder vorgestellt werden können. (4) "mittel" muß von "kaum" als der kleinsten quantitativen Einheit einen vielfachen Abstand haben. (5) Mittel sollte von "gut" etwa den gleichen Abstand haben wie von "kaum" (6) Der Abstand "gut" und "sehr gut" ist nicht so groß, aber doch stärker als der Abstand zwischen "nicht" und "kaum". (7) "Gut" muß ein Abstands-Vielfaches von "kaum" ergeben. (8) "Sehr gut" muß demnach noch ein höheres Abstands-Vielfaches als "gut" ergeben. Diese arithmetrischen Grundüberlegungen und Begründungen werden von folgenden Skalenwerten oder Scores erfüllt: |
Scorierung oder Skalierung der Verbalausprägungen
0= nicht | 1= kaum | 4= mittel | 7= gut | 9= sehr gut |
Diese Scores sind mit obigen Überlegungen gut arithmetrisch begründet. Zusätzlich können sie pragmatisch gestützt werden, etwa, wenn sich zeigen läßt, daß mit dieser Scorierungswahl diese oder jene nützlichen Anwendungen möglich sind. Hierzu zwei Beispiele für derartige pragmatische Stützungen:
(1) Numerische Stützung: Zeigt mit diesen Scores eine Korrelationsmatrix so und so viele Kollinearitäten (= Eigenwerte nahe 0), so hat diese Scorierung dazu geführt, daß Gesetz- und Regelhaftigkeiten gefunden werden konnten. Im folgenden wird dokumentiert, daß diese Scorierung tatsächlich zu 18 Kollinearitäten in der kompetenten BeurteilerInnen Item-Korrelationsmatrix führt (womit ich niht gerechnet hatte). Das heißt, daß 18 lineare Abhängigkeiten, Gesetzmäßigkeiten oder regelhafte Zusammenhänge bestehen.
(2) Evaluation und Validität: Kann gezeigt werden, daß mit diesen Scores gut zwischen Nichtverwahrlosten und Verwahrlosten quantitativ abgestuft unterschieden werden kann, so hat sich die Scorierung praktisch evaluativ bewährt. Das entspräche ungefähr dem Vorgehen bei einer Testvalidierung.
Die kompetenten
Ziffercodierten Verbal-Beurteilungen mit Missing-Data
Man beachte bitte, daß die Ziffern in der Tabelle nur Ziffercodes und keine Zahlen für die Verbalbeurteilungen der kompetenten BeurteilerInnen repräsentieren. Ziffern sind Zeichen wie das Alphabet und keine Zahlen mit denen man rechnen kann. Man sieht es vielen Veröffentlichungen oft nicht an, ob ihre Zeichen Ziffern oder Zahlen sind und falls, welchen Typus sie bedeuten sollen. |
Gleichheitszeichen und Doppelpunkt "=:" bedeutet hier Definition. Zeilen =: Items, Spalten =: BeurteilerInnen. Ziffer "1" = "nicht", Ziffer "2" =: "kaum", Ziffer "3" = "mittel", Ziffer "4" = "gut", Ziffer "5" =: "sehr gut", x=: Missing Data (Lösung unten).
10
20
29
1 2 3 4 5 6 7 8 9 0
1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9
Item 01 1 2 3 2 2 2 1 2 2 1 4 x 2 2 1 2 5 1 1 2 2 1 2 4 2 1 3 1
2
Item 02 2 2 3 3 2 3 1 2 3 2 2 4 3 4 1 2 4 1 2 1 1 1 2 4 4 3 4 3
2
Item 03 2 2 2 3 2 2 2 2 2 2 2 1 3 3 2 2 4 2 2 1 3 3 3 4 4 2 4 2
2
Item 04 2 3 2 2 2 3 1 3 2 2 3 2 1 3 2 3 5 2 1 2 3 2 3 4 4 2 4 1
3
Item 05 1 2 3 4 3 3 2 1 3 4 3 3 4 5 2 2 5 2 2 3 3 3 2 5 4 3 4 2
3
Item 06 2 2 3 4 2 2 2 1 3 3 2 3 2 5 3 4 5 2 2 4 4 2 2 4 4 3 3 2
2
Item 07 2 4 4 4 5 4 2 4 4 4 4 3 4 5 4 4 4 2 4 4 4 4 4 4 3 2 4 2
5
Item 08 3 x 5 5 5 4 4 5 4 5 4 4 4 3 4 4 5 4 5 5 4 4 4 5 4 3 5 4
5
Item 09 4 4 5 5 5 5 5 5 4 5 4 5 5 5 5 5 5 5 5 5 4 4 4 5 5 5 5 4
5
Item 10 3 4 3 5 4 4 3 4 4 3 2 4 4 5 4 3 5 3 3 3 3 3 4 5 4 3 3 2
5
Item 11 3 4 3 4 5 4 3 4 4 3 4 4 4 4 4 4 4 3 3 4 2 4 4 3 4 4 3 3
5
Item 12 2 3 4 4 2 2 3 4 2 3 3 3 4 3 5 4 3 3 2 3 3 4 3 2 3 4 5 2
2
Item 13 2 3 3 4 3 1 4 2 3 2 3 2 2 3 1 2 2 3 1 2 3 2 4 4 2 4 4 4
2
Item 14 3 3 2 4 5 2 3 3 4 3 2 3 3 3 2 4 5 3 1 3 4 3 4 5 4 3 4 4
3
Item 15 2 3 2 3 2 2 3 1 3 3 2 3 1 3 2 2 3 3 1 2 3 3 4 x 3 3 3 3
3
Item 16 4 5 4 5 5 4 4 4 4 3 3 4 4 4 5 5 5 3 4 4 4 3 4 5 5 4 5 4
4
Item 17 3 4 4 4 2 2 2 3 3 2 2 4 2 5 3 5 3 3 5 2 4 3 5 x 3 4 4 3
3
Item 18 4 5 5 5 5 4 4 4 4 4 4 4 4 5 5 5 4 4 5 5 4 4 5 4 4 4 5 4
4
Item 19 3 4 4 3 5 3 1 3 2 2 3 3 3 4 1 4 4 3 3 3 3 3 4 x 4 4 4 4
2
Item 20 2 1 3 3 4 1 3 2 2 2 4 3 2 2 1 2 3 3 2 2 3 4 4 3 4 2 5 2
3
Item 21 4 4 4 4 5 4 2 4 4 4 4 4 4 4 2 5 5 5 5 3 4 5 3 4 4 4 5 4
4
Item 22 2 5 3 5 5 4 2 4 4 4 4 3 3 3 2 5 4 5 5 4 4 5 3 4 4 4 5 4
3
Item 23 4 5 4 4 5 5 3 4 4 3 2 4 3 4 4 5 3 4 5 5 4 4 5 4 4 4 3 4
4
Item 24 3 5 4 5 5 4 3 4 4 3 3 4 4 3 3 5 4 5 3 4 5 5 5 4 4 3 4 3
3
Item 25 3 4 4 4 3 3 3 4 2 3 4 3 3 4 4 5 4 4 3 3 5 4 5 4 4 3 4 2
4
Item 26 3 3 3 4 3 3 2 4 3 3 2 4 1 3 1 5 4 3 2 2 4 3 4 4 2 3 4 4
3
Item 27 4 5 4 5 5 2 4 4 3 4 3 4 4 3 3 5 3 4 4 4 4 4 5 5 3 4 4 4
4
Item 28 3 5 4 4 5 4 3 5 4 4 4 4 4 4 2 4 2 3 5 4 4 4 4 4 4 3 5 5
4
Item 29 2 4 2 4 3 3 1 3 4 3 3 2 1 3 1 4 2 3 2 2 4 3 4 5 2 2 5 2
3
Item 30 4 4 3 5 4 3 3 3 4 4 4 3 4 4 4 5 4 4 3 4 4 3 4 5 3 4 5 3
3
Item 31 2 3 3 3 3 2 1 1 2 2 2 2 2 3 1 4 5 3 1 2 4 3 3 3 5 3 4 4
2
Item 32 3 3 3 3 3 2 1 1 2 2 2 2 3 3 1 5 4 3 1 2 5 3 3 3 5 3 4 4
2
Item 33 3 3 3 4 5 4 4 3 4 4 3 3 4 5 3 5 2 3 4 3 5 4 4 4 5 3 4 4
4
Item 34 2 3 3 4 5 2 3 3 2 3 4 3 1 4 4 5 5 3 1 3 4 3 3 5 4 x 4 5
3
Item 35 3 3 2 4 4 2 3 3 2 3 2 3 2 4 3 5 5 3 1 3 5 3 3 3 3 3 4 4
x
Item 36 3 4 2 4 5 2 3 4 3 2 3 4 2 4 1 5 4 3 1 3 5 3 2 4 3 4 4 5
2
Item 37 4 4 2 3 2 3 3 3 2 3 3 4 3 4 4 3 2 4 2 4 4 3 4 3 3 4 3 4
2
Item 38 2 3 2 3 4 2 2 2 2 2 2 3 2 3 1 3 3 3 1 3 4 3 3 4 3 3 4 3
2
Item 39 3 4 2 4 2 2 3 4 2 2 4 4 3 4 3 4 3 3 1 3 4 3 3 3 4 2 4 4
x
Item 40 4 4 2 5 2 2 3 5 3 3 3 4 4 5 4 x 4 4 2 4 5 4 3 4 4 3 5 4
x
Item 41 3 3 3 2 3 2 2 2 2 2 2 3 3 4 1 4 4 3 1 3 4 4 3 4 3 3 4 4
x
Item 42 x 3 3 5 3 2 3 2 2 2 4 4 2 4 2 5 2 3 2 4 4 4 4 3 3 3 5 2
x
Item 43 4 4 4 5 2 4 4 4 3 3 4 4 4 5 4 4 4 4 4 5 5 4 5 x 4 4 5 4
4
Item 44 3 5 3 5 3 3 4 3 2 3 3 4 4 4 1 5 5 3 3 4 4 3 3 4 4 4 4 5
x
Item 45 3 4 4 5 3 3 3 4 4 4 4 4 5 4 3 5 4 4 3 4 3 4 4 4 3 4 4 4
4
Item 46 3 4 4 4 3 3 3 3 3 3 2 4 4 4 4 5 5 4 2 4 4 4 5 2 4 3 4 4
x
Die Lösung des Missing-Data-Problems bei der kompetenten BeurteilerInnen-Skalierung
Während Naturwissenschaft und Technik, wenn sie die Natur befragen, fast immer eine Antwort (= Meßwert) erhalten, ist das in den Sozialwissenschaften leider nicht so. Es ist Realität, daß in fast jeder empirischen Bearbeitung eines Menschen irgend etwas fehlt, sei es, weil es vergessen oder übersehen wurde, sei es, daß die ProbandIn die Bearbeitung bewußt verweigert hat, sei es, daß eine Bearbeitung nicht entschlüsselbar ist oder - unerwünschte - und nicht eindeutig zuordenbare Mehrfachwahlen getroffen wurden. Sollen die Stichprobenumfänge nicht extrem einschmelzen und dann vom Umfang her nicht mehr verwertbar sein, muß man für das fehlende Daten = Missing- Data-Problem eine Lösung finden. Falsche Lösungen führen übrigens bei Korrelationsmatrizen zu negativ definitien Entgleisungen, wie wir in dieser Dokumentation noch zeigen werden.
Es ist naheliegend, daß wir für die Lösung des Missing-Data-Problems den mittleren Score "mittel" oder die Zahl 4 verwenden. Die Zahl 4 kommt dem Mittelwert am nächsten. Wenn wir nichts wissen, lehrt uns die Statistik, so hat der Mittelwert die geringste Abweichung vom wahren Wert, macht also den kleinsten Fehler.
Scorierte Itemliste der kompetenten BeurteilerInnen-Skalierung
Das ist nun die Scorematrix der 46 Items durch 29 kompetente BeurteilerInnen, wovon wir im nächsten Abschnitt eine Korrelationsanalyse über die 46 Items der Verwahrlosungsmerkmale rechnen.
Ablese-Beispiel: Zeile 04 Spalte 10+7 enthält den Eintrag 9. D. h. die BeurteilerIn "Nr. 17" hat das Item Nr. 4 "Schimpft überdurchschnittlich oft und heftig auf Schule und Lehrer" mit "sehr gut" zur Unterscheidung von Verwahrlosung bewertet und hier daher den maximalen Score von 9 erhalten.
10
20
29
Be 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9
01 0 1 4 1 1 1 0 1 1 0 7 4 1 1 0 1 9 0 0 1 1 0 1 7 1 0 4 0 1
02 1 1 4 4 1 4 0 1 4 1 1 7 4 7 0 1 7 0 1 0 0 0 1 7 7 4 7 4 1
03 1 1 1 4 1 1 1 1 1 1 1 0 4 4 1 1 7 1 1 0 4 4 4 7 7 1 7 1 1
04 1 4 1 1 1 4 0 4 1 1 4 1 0 4 1 4 9 1 0 1 4 1 4 7 7 1 7
0 4
05 0 1 4 7 4 4 1 0 4 7 4 4 7 9 1 1 9 1 1 4 4 4 1 9 7 4 7 1 4
06 1 1 4 7 1 1 1 0 4 4 1 4 1 9 4 7 9 1 1 7 7 1 1 7 7 4 4 1 1
07 1 7 7 7 9 7 1 7 7 7 7 4 7 9 7 7 7 1 7 7 7 7 7 7 4 1 7 1 9
08 4 4 9 9 9 7 7 9 7 9 7 7 7 4 7 7 9 7 9 9 7 7 7 9 7 4 9 7 9
09 7 7 9 9 9 9 9 9 7 9 7 9 9 9 9 9 9 9 9 9 7 7 7 9 9 9 9 7 9
10 4 7 4 9 7 7 4 7 7 4 1 7 7 9 7 4 9 4 4 4 4 4 7 9 7 4 4 1 9
11 4 7 4 7 9 7 4 7 7 4 7 7 7 7 7 7 7 4 4 7 1 7 7 4 7 7 4 4 9
12 1 4 7 7 1 1 4 7 1 4 4 4 7 4 9 7 4 4 1 4 4 7 4 1 4 7 9 1 1
13 1 4 4 7 4 0 7 1 4 1 4 1 1 4 0 1 1 4 0 1 4 1 7 7 1 7 7 7 1
14 4 4 1 7 9 1 4 4 7 4 1 4 4 4 1 7 9 4 0 4 7 4 7 9 7 4 7 7 4
15 1 4 1 4 1 1 4 0 4 4 1 4 0 4 1 1 4 4 0 1 4 4 7 4 4 4 4 4 4
16 7 9 7 9 9 7 7 7 7 4 4 7 7 7 9 9 9 4 7 7 7 4 7 9 9 7 9 7 7
17 4 7 7 7 1 1 1 4 4 1 1 7 1 9 4 9 4 4 9 1 7 4 9 4 4 7 7 4 4
18 7 9 9 9 9 7 7 7 7 7 7 7 7 9 9 9 7 7 9 9 7 7 9 7 7 7 9 7 7
19 4 7 7 4 9 4 0 4 1 1 4 4 4 7 0 7 7 4 4 4 4 4 7 4 7 7 7 7 1
20 1 0 4 4 7 0 4 1 1 1 7 4 1 1 0 1 4 4 1 1 4 7 7 4 7 1 9 1 4
21 7 7 7 7 9 7 1 7 7 7 7 7 7 7 1 9 9 9 9 4 7 9 4 7 7 7 9 7 7
22 1 9 4 9 9 7 1 7 7 7 7 4 4 4 1 9 7 9 9 7 7 9 4 7 7 7 9 7 4
23 7 9 7 7 9 9 4 7 7 4 1 7 4 7 7 9 4 7 9 9 7 7 9 7 7 7 4 7 7
24 4 9 7 9 9 7 4 7 7 4 4 7 7 4 4 9 7 9 4 7 9 9 9 7 7 4 7 4 4
25 4 7 7 7 4 4 4 7 1 4 7 4 4 7 7 9 7 7 4 4 9 7 9 7 7 4 7 1 7
26 4 4 4 7 4 4 1 7 4 4 1 7 0 4 0 9 7 4 1 1 7 4 7 7 1 4 7 7 4
27 7 9 7 9 9 1 7 7 4 7 4 7 7 4 4 9 4 7 7 7 7 7 9 9 4 7 7 7 7
28 4 9 7 7 9 7 4 9 7 7 7 7 7 7 1 7 1 4 9 7 7 7 7 7 7 4 9 9 7
29 1 7 1 7 4 4 0 4 7 4 4 1 0 4 0 7 1 4 1 1 7 4 7 9 1 1 9 1 4
30 7 7 4 9 7 4 4 4 7 7 7 4 7 7 7 9 7 7 4 7 7 4 7 9 4 7 9 4 4
31 1 4 4 4 4 1 0 0 1 1 1 1 1 4 0 7 9 4 0 1 7 4 4 4 9 4 7 7 1
32 4 4 4 4 4 1 0 0 1 1 1 1 4 4 0 9 7 4 0 1 9 4 4 4 9 4 7 7 1
33 4 4 4 7 9 7 7 4 7 7 4 4 7 9 4 9 1 4 7 4 9 7 7 7 9 4 7 7 7
34 1 4 4 7 9 1 4 4 1 4 7 4 0 7 7 9 9 4 0 4 7 4 4 9 7 4 7 9 4
35 4 4 1 7 7 1 4 4 1 4 1 4 1 7 4 9 9 4 0 4 9 4 4 4 4 4 7 7 4
36 4 7 1 7 9 1 4 7 4 1 4 7 1 7 0 9 7 4 0 4 9 4 1 7 4 7 7 9 1
37 7 7 1 4 1 4 4 4 1 4 4 7 4 7 7 4 1 7 1 7 7 4 7 4 4 7 4 7 1
38 1 4 1 4 7 1 1 1 1 1 1 4 1 4 0 4 4 4 0 4 7 4 4 7 4 4 7 4 1
39 4 7 1 7 1 1 4 7 1 1 7 7 4 7 4 7 4 4 0 4 7 4 4 4 7 1 7 7 4
40 7 7 1 9 1 1 4 9 4 4 4 7 7 9 7 4 7 7 1 7 9 7 4 7 7 4 9 7 4
41 4 4 4 1 4 1 1 1 1 1 1 4 4 7 0 7 7 4 0 4 7 7 4 7 4 4 7 7 4
42 4 4 4 9 4 1 4 1 1 1 7 7 1 7 1 9 1 4 1 7 7 7 7 4 4 4 9 1 4
43 7 7 7 9 1 7 7 7 4 4 7 7 7 9 7 7 7 7 7 9 9 7 9 4 7 7 9 7 7
44 4 9 4 9 4 4 7 4 1 4 4 7 7 7 0 9 9 4 4 7 7 4 4 7 7 7 7 9 4
45 4 7 7 9 4 4 4 7 7 7 7 7 9 7 4 9 7 7 4 7 4 7 7 7 4 7 7 7 7
46 4 7 7 7 4 4 4 4 4 4 1 7 7 7 7 9 9 7 1 7 7 7 9 1 7 4 7 7 4
_
Original Korrelationsmatrix der scorierten Itemliste
"D-3" lies wie Exponent 10-3, wobei das "D" in Omikron Basic als Exponentialzeichen für das Rechnen mit doppelter Genauigkeit ausgegeben wird. Ablesebeispiel: Zeile 1, Spalte 12 "-5D-3 " = 0.005. Die Korrelationskoeffizienten werden hier aus Platzgründen nur dreistellig ausgegeben, sie wurden aber mit maximaler Genauigkeit gerechnet auf Atari in Omikronbasic, emuliert auf MagiC PC der Firma Applications Systems Heidelberg für Win95/98.
Inhaltliches Ablesebeispiel:
Zeile 3 und Spalte 4: Item 03uv "Zeigt selbst bei motiviert begonnener
Tätigkeit keine Ausdauer" korreliert mit Item 04uv "Schimpft überdurchschnittlich
oft und heftig auf Schule und Lehrer" zeigt in der kompetenten BeurteilerInnen
Bewertung nach der Scorierung Sponsel (0,1,4,7,9) einen hohen linearen
Zusammenhang von r = 0.708. In Worten: Die kompetenten BeurteilerInnen
sehen einen ausgeprägten Zusammenhang in bezug auf Verwahrlosungsmerkmale
zwischen diesen beiden Items. Welches beider Items den größeren
Einfluß auf die mittelstarke Korrelation hat, kann einer Regressionsanalyse
entnommen werden, die
Sie hier finden.
1 2
3 4 5
6 7 8
9 10 11 12
1 1 .522 .452 .634
.512 .359 .248 .319 .083 .176 .016
-5D-3
2 .522 1 .587 .482
.705 .507 .025 .012 .299 .408 .066
4D-3
3 .452 .587 1 .708
.682 .492 .201 .163 .07 .376 -.119
.18
4 .634 .482 .708 1
.463 .447 .321 .131 .079 .385 .077
.018
5 .512 .705 .682 .463 1
.644 .384 .234 .346 .444 .089 .062
6 .359 .507 .492 .447 .644
1 .225 .077 .298 .325 -.061
.179
7 .248 .025 .201 .321 .384
.225 1 .413 .116 .468 .381
.073
8 .319 .012 .163 .131 .234
.077 .413 1 .416 .104 -.035
.013
9 .083 .299 .07 .079
.346 .298 .116 .416 1 .357
.17 .243
10 .176 .408 .376 .385 .444
.325 .468 .104 .357 1 .491
-.071
11 .016 .066 -.119 .077 .089 -.061
.381 -.035 .17 .491 1 .053
12-5D-3 4D-3 .18 .018 .062
.179 .073 .013 .243 -.071 .053 1
13 .107 .193 .236 .031 .094
.041 -.265 -.097 -.199 -.115 -.266 .036
14 .237 .344 .564 .435 .361
.417 .038 .171 -.082 .304 .023 -.129
15 .048 .255 .396 .267 .243
.221 -.173 -.163 -.265 .194 -.096 -.078
16 .178 .404 .363 .404 .162
.409 .197 .081 .279 .513 .194 .084
17-.037 .21 .168 .157 -.085
.296 .081 -.235 -.071 .119 -.133 .234
18-.109 -.092 -.037 -.046 -.083 .194 .44
.097 .164 .107 .156 .292
19 .215 .372 .307 .342 .148
.188 .045 -.154 -.034 -.022 .128 .067
20 .377 .153 .508 .359 .264 -4D-3
.102 .324 -.086 -.051 .015 .122
21 .226 .278 .226 .25 .263
.048 .165 .12 -4D-3 -.032 0 -.13
22 .082 .038 .171 .213 .157
.097 .224 .272 -.016 -.117 .038 -1D-3
23-.462 -.177 -.251 -.148 -.371 -4D-3 .106 -.106
3D-3 .235 .177 -.245
24 .064 -.036 .266 .209 .031 .122
.261 .169 -.111 .233 .105 .188
25 .257 -.086 .429 .565 .091 .293
.367 .064 .039 .221 0 .446
26 .253 .273 .239 .377 .063
.259 .052 .127 -.109 .145 -.137 .027
27-.143 -.267 -.035 -.201 -.21 -.115 -.039 .144
-.052 -.06 -.137 .105
28-.139 .039 -.055 -.032 -.017 -.241 .342
.204 -.159 -.114 9D-3 -.191
29 .161 .058 .331 .434 .173
.159 .418 .112 -.248 .203 -.074 -7D-3
30 .229 .089 .32 .25
.315 .445 .2 -.053 -3D-3 .131 -.043
.237
31 .279 .423 .639 .57 .344
.513 -.049 -.014 -.079 3D-3 -.146 .136
32 .144 .325 .584 .456 .255
.452 -.097 -.134 -.155 -.077 -.232 .154
33-.388 .031 .224 -7D-3 .176 .105
.257 .041 -6D-3 .066 -.064 -.178
34 .409 .247 .4 .477
.303 .514 .127 .186 .084 .055 .021
.145
35 .092 .127 .355 .367 .19
.525 .03 .01 .032 .113 -.077
.169
36 .198 .262 .194 .27 .12
.357 -.119 -.146 -.11 -.013 -.051 .023
37-.306 -.121 -.122 -.14 -.26 .043 -.443
-.618 -.271 -.212 -.203 .18
38 .239 .307 .515 .411 .352
.419 .059 .039 -.042 .098 -.123 .027
39 .164 .176 .29 .374 .035
.245 -.039 -.185 -.193 .015 -8D-3 .295
40 .065 .23 .447 .273 .232
.365 -.095 -.167 -.106 .181 -.15 .364
41 .274 .354 .509 .426 .325
.402 5D-3 -.135 -.141 -3D-3 -.158 .047
42 .112 .025 .201 .169 .126
.331 .124 -.079 -.099 -.095 .021 .326
43-.059 .033 .18 .139 -.059
.209 -.089 -.208 -.082 -.096 -.164 .418
44 .225 .393 .353 .298 .308
.432 -.167 -.104 .106 .032 -.097 .096
45 .227 .215 .096 .039 .272
.183 .179 .097 .05 .1 .251
.375
46-.072 .121 .244 .136 .04
.351 .01 -.118 -.026 .127 .1
.475
13 14
15 16 17 18
19 20 21 22
23 24
1 .107 .237 .048 .178 -.037 -.109
.215 .377 .226 .082 -.462 .064
2 .193 .344 .255 .404 .21
-.092 .372 .153 .278 .038 -.177 -.036
3 .236 .564 .396 .363 .168
-.037 .307 .508 .226 .171 -.251 .266
4 .031 .435 .267 .404 .157
-.046 .342 .359 .25 .213 -.148 .209
5 .094 .361 .243 .162 -.085 -.083
.148 .264 .263 .157 -.371 .031
6 .041 .417 .221 .409 .296
.194 .188 -4D-3 .048 .097 -4D-3 .122
7 -.265 .038 -.173 .197 .081 .44
.045 .102 .165 .224 .106 .261
8 -.097 .171 -.163 .081 -.235 .097 -.154
.324 .12 .272 -.106 .169
9 -.199 -.082 -.265 .279 -.071 .164 -.034 -.086
-4D-3 -.016 3D-3 -.111
10-.115 .304 .194 .513 .119
.107 -.022 -.051 -.032 -.117 .235 .233
11-.266 .023 -.096 .194 -.133 .156
.128 .015 0 .038 .177 .105
12 .036 -.129 -.078 .084 .234 .292
.067 .122 -.13 -1D-3 -.245 .188
13 1 .416 .551 .129
.222 .114 .261 .339 -.116 .094 -.132 .084
14 .416 1 .491 .462
.077 -.049 .377 .361 .248 .298 .054
.458
15 .551 .491 1 -.027
.3 -.139 .07 .371 -.063 .041 -.04
.166
16 .129 .462 -.027 1
.293 .442 .347 -.033 -.079 1D-3 .326 .209
17 .222 .077 .3 .293
1 .484 .401 .011 .22
.127 .39 .19
18 .114 -.049 -.139 .442 .484 1
.365 .013 -.088 .131 .431 .225
19 .261 .377 .07 .347 .401
.365 1 .278 .502 .411 .267
.377
20 .339 .361 .371 -.033 .011 .013
.278 1 .202 .191 -.297 .326
21-.116 .248 -.063 -.079 .22 -.088
.502 .202 1 .703 .045 .327
22 .094 .298 .041 1D-3 .127
.131 .411 .191 .703 1 .188
.516
23-.132 .054 -.04 .326 .39
.431 .267 -.297 .045 .188 1
.383
24 .084 .458 .166 .209 .19
.225 .377 .326 .327 .516 .383 1
25 .02 .108 .175 .151 .434
.291 .216 .39 .065 .099 .02
.423
26 .321 .592 .391 .24 .48
.017 .376 .143 .407 .323 .195 .433
27 .389 .36 .164 .153 .304
.313 .221 .162 .109 .205 .26
.368
28 .136 .076 -.08 -5D-3 .148 .222
.309 .137 .379 .487 .258 .241
29 .407 .461 .377 .159 .32
.207 .139 .277 .308 .499 .136 .522
30 .344 .452 .121 .296 .161
.338 .163 .046 .107 .235 -.105 .27
31 .294 .656 .421 .375 .353
.077 .688 .399 .428 .418 .032 .411
32 .234 .624 .288 .356 .354
.049 .651 .31 .427 .324 .051
.422
33 .154 .306 .146 .122 .124
.133 .079 .185 .112 .175 .224 .147
34 .344 .584 .248 .395 .112
.181 .403 .368 .087 .237 -.111 .158
35 .235 .684 .342 .4
.281 .168 .384 .18 .177 .205
.056 .282
36 .404 .648 .204 .35 .232
1D-3 .509 .127 .348 .406 .067 .324
37 .183 -.073 .252 -.119 .18 .01
.057 -.226 -.352 -.214 .149 -.014
38 .478 .735 .445 .342 .254
.16 .582 .478 .337 .469 .181
.549
39 .159 .268 .208 .201 .254
.025 .196 .203 -3D-3 .05 -.176 .191
40 .12 .328 .274 .138 .152
-.101 -2D-3 .038 -.029 -1D-3 -.192 .155
41 .224 .565 .351 .185 .311 -3D-3
.572 .281 .41 .194 .066 .308
42 .333 .222 .286 .058 .424
.38 .29 .51 .096 .183 .041
.382
43 .074 -.221 .164 -5D-3 .45 .211
.066 .011 -.202 -.145 -.018 .016
44 .319 .452 .253 .376 .249
.054 .49 .025 .216 .283 -.034 .214
45 .205 .203 .166 -.087 .204 .082
.158 -.029 .276 .276 -.174 .254
46-.014 .305 .314 .245 .349
.308 .368 .084 -.026 -.012 .179 .49
25 26
27 28 29 30
31 32 33 34
35 36
1 .257 .253 -.143 -.139 .161 .229
.279 .144 -.388 .409 .092 .198
2 -.086 .273 -.267 .039 .058 .089
.423 .325 .031 .247 .127 .262
3 .429 .239 -.035 -.055 .331 .32
.639 .584 .224 .4 .355 .194
4 .565 .377 -.201 -.032 .434 .25
.57 .456 -7D-3 .477 .367 .27
5 .091 .063 -.21 -.017 .173
.315 .344 .255 .176 .303 .19
.12
6 .293 .259 -.115 -.241 .159 .445
.513 .452 .105 .514 .525 .357
7 .367 .052 -.039 .342 .418
.2 -.049 -.097 .257 .127 .03 -.119
8 .064 .127 .144 .204 .112
-.053 -.014 -.134 .041 .186 .01 -.146
9 .039 -.109 -.052 -.159 -.248 -3D-3 -.079 -.155 -6D-3
.084 .032 -.11
10 .221 .145 -.06 -.114 .203 .131
3D-3 -.077 .066 .055 .113 -.013
11 0 -.137 -.137 9D-3 -.074 -.043
-.146 -.232 -.064 .021 -.077 -.051
12 .446 .027 .105 -.191 -7D-3 .237
.136 .154 -.178 .145 .169 .023
13 .02 .321 .389 .136 .407
.344 .294 .234 .154 .344 .235 .404
14 .108 .592 .36 .076 .461
.452 .656 .624 .306 .584 .684 .648
15 .175 .391 .164 -.08 .377
.121 .421 .288 .146 .248 .342 .204
16 .151 .24 .153 -5D-3 .159
.296 .375 .356 .122 .395 .4
.35
17 .434 .48 .304 .148 .32
.161 .353 .354 .124 .112 .281 .232
18 .291 .017 .313 .222 .207
.338 .077 .049 .133 .181 .168 1D-3
19 .216 .376 .221 .309 .139
.163 .688 .651 .079 .403 .384 .509
20 .39 .143 .162 .137 .277
.046 .399 .31 .185 .368 .18
.127
21 .065 .407 .109 .379 .308
.107 .428 .427 .112 .087 .177 .348
22 .099 .323 .205 .487 .499
.235 .418 .324 .175 .237 .205 .406
23 .02 .195 .26 .258
.136 -.105 .032 .051 .224 -.111 .056 .067
24 .423 .433 .368 .241 .522
.27 .411 .422 .147 .158 .282
.324
25 1 .296 .195 -.093
.426 .286 .383 .376 .045 .399 .361
.089
26 .296 1 .376 .203
.588 .275 .495 .464 .081 .434 .625
.627
27 .195 .376 1 .332
.319 .303 .1 .183 .132 .156
.278 .318
28-.093 .203 .332 1
.419 -.132 .014 .051 .499 -.054 -.103 .2
29 .426 .588 .319 .419 1
.564 .27 .266 .371 .273 .289
.35
30 .286 .275 .303 -.132 .564 1
.253 .32 .05 .366 .409 .333
31 .383 .495 .1 .014
.27 .253 1 .937 .204
.659 .681 .563
32 .376 .464 .183 .051 .266
.32 .937 1 .31 .544
.659 .55
33 .045 .081 .132 .499 .371
.05 .204 .31 1 .153
.203 .124
34 .399 .434 .156 -.054 .273 .366
.659 .544 .153 1 .754 .645
35 .361 .625 .278 -.103 .289 .409
.681 .659 .203 .754 1
.744
36 .089 .627 .318 .2
.35 .333 .563 .55 .124 .645
.744 1
37 .092 .064 .097 -.153 -.035 .179
.027 .121 -.124 .051 .208 .21
38 .301 .54 .406 .224 .513
.449 .693 .654 .285 .63 .673
.732
39 .443 .346 .123 .163 .253
.168 .382 .422 .069 .485 .509 .54
40 .282 .261 .086 -.089 .182 .304
.287 .324 -.093 .293 .482 .437
41 .306 .518 .252 .075 .257
.24 .736 .762 .179 .504 .63
.57
42 .521 .34 .369 .191 .451
.395 .308 .351 .24 .35 .417
.388
43 .409 .079 -.085 -.088 -.022 -3D-3 .16
.192 -.123 -.065 .163 -.039
44 .129 .4 .332 .153
.1 .221 .584 .584 .079 .417
.563 .633
45 .151 .38 .343 .172 .303
.376 .135 .133 -.128 .111 .122 .192
46 .358 .318 .101 -.183 1D-3 .143
.552 .552 -.029 .261 .529 .198
37 38
39 40 41 42
43 44 45 46
1 -.306 .239 .164 .065 .274
.112 -.059 .225 .227 -.072
2 -.121 .307 .176 .23 .354
.025 .033 .393 .215 .121
3 -.122 .515 .29 .447 .509
.201 .18 .353 .096 .244
4 -.14 .411 .374 .273 .426
.169 .139 .298 .039 .136
5 -.26 .352 .035 .232 .325
.126 -.059 .308 .272 .04
6 .043 .419 .245 .365 .402
.331 .209 .432 .183 .351
7 -.443 .059 -.039 -.095 5D-3 .124 -.089
-.167 .179 .01
8 -.618 .039 -.185 -.167 -.135 -.079 -.208 -.104
.097 -.118
9 -.271 -.042 -.193 -.106 -.141 -.099 -.082 .106
.05 -.026
10-.212 .098 .015 .181 -3D-3 -.095 -.096
.032 .1 .127
11-.203 -.123 -8D-3 -.15 -.158 .021 -.164 -.097
.251 .1
12 .18 .027 .295 .364 .047
.326 .418 .096 .375 .475
13 .183 .478 .159 .12 .224
.333 .074 .319 .205 -.014
14-.073 .735 .268 .328 .565
.222 -.221 .452 .203 .305
15 .252 .445 .208 .274 .351
.286 .164 .253 .166 .314
16-.119 .342 .201 .138 .185
.058 -5D-3 .376 -.087 .245
17 .18 .254 .254 .152 .311
.424 .45 .249 .204 .349
18 .01 .16 .025 -.101 -3D-3
.38 .211 .054 .082 .308
19 .057 .582 .196 -2D-3 .572 .29
.066 .49 .158 .368
20-.226 .478 .203 .038 .281
.51 .011 .025 -.029 .084
21-.352 .337 -3D-3 -.029 .41 .096
-.202 .216 .276 -.026
22-.214 .469 .05 -1D-3 .194
.183 -.145 .283 .276 -.012
23 .149 .181 -.176 -.192 .066 .041 -.018
-.034 -.174 .179
24-.014 .549 .191 .155 .308
.382 .016 .214 .254 .49
25 .092 .301 .443 .282 .306
.521 .409 .129 .151 .358
26 .064 .54 .346 .261 .518
.34 .079 .4 .38 .318
27 .097 .406 .123 .086 .252
.369 -.085 .332 .343 .101
28-.153 .224 .163 -.089 .075 .191
-.088 .153 .172 -.183
29-.035 .513 .253 .182 .257
.451 -.022 .1 .303 1D-3
30 .179 .449 .168 .304 .24
.395 -3D-3 .221 .376 .143
31 .027 .693 .382 .287 .736
.308 .16 .584 .135 .552
32 .121 .654 .422 .324 .762
.351 .192 .584 .133 .552
33-.124 .285 .069 -.093 .179 .24
-.123 .079 -.128 -.029
34 .051 .63 .485 .293 .504
.35 -.065 .417 .111 .261
35 .208 .673 .509 .482 .63
.417 .163 .563 .122 .529
36 .21 .732 .54 .437
.57 .388 -.039 .633 .192 .198
37 1 .225 .448 .521
.19 .278 .468 .211 3D-3 .321
38 .225 1 .355 .372
.725 .54 3D-3 .524 .11 .304
39 .448 .355 1 .75
.38 .522 .511 .534 .281 .401
40 .521 .372 .75 1
.389 .293 .473 .387 .27 .396
41 .19 .725 .38 .389
1 .404 .171 .553 .272 .473
42 .278 .54 .522 .293 .404
1 .46 .366 .3
.324
43 .468 3D-3 .511 .473 .171
.46 1 .33 .178 .476
44 .211 .524 .534 .387 .553
.366 .33 1 .377 .373
45 3D-3 .11 .281 .27
.272 .3 .178 .377 1
.325
46 .321 .304 .401 .396 .473
.324 .476 .373 .325 1
Erste
Matrixanalyse der Korrelationsmatrix
der scorierten Itemliste:
18 Kollinearitäten
Man beachte: Nicht jede Matrix, die nach ihrem Aussehen
und ihrer Oberfläche eine Korrelationsmatrix zu sein scheint, ist
auch tatsächlich eine Korrelationsmatrix im numerisch- linear- algebraischen
Sinne. Daher ist der erste Schritt, um festzustellen, ob eine phänotypische
Korrelationsmatrix auch eine genotypische, d. h. richtige ist, eine
Matrixanalyse mit Schwerpunkt Eigenwerte und Definitheit.
Anmerkung: Aus dem positiven Vorzeichen der Determinante darf nicht der Schluß gezogen werden, daß die Matrix positiv definit ist. Sind in einer Matrix z. B. zwei negative Eigenwerte vorhanden, wäre die Determinante, die sich auch als Produkt der Eigenwerte bestimmen läßt, ebenfalls positiv, weil (-) * (-), was ich bis heute leider noch nicht richtig verstanden habe, in der Mathematik (+) ergibt. Das zeigt sich hier sehr schön, weil die Matrix 18 negative Eigenwerte, aber eine nicht-negative Determinante hat. |
Numerische Laien hier und Professionell Interessierte hier |
MEID.D46
Samp Or MD NumS Condit Determinant
HaInRatio R_OutIn K_Norm C_Norm
29 46 9 --18 9.8D+16
0 2.16D-326 17456.3
0(18) -1(-1)
********** Summary of standard correlation matrix
analysis ***********
File = MEID.D46 N-order= 46
N-sample= 29 Rank= 46 Missing data = 9
Positiv Definit=Cholesky successful________= No with 18 negat.
eigenvalue/s
HEVA: Highest eigenvalue abs.value_________=
12.128393509183514
LEVA: Lowest eigenvalue absolute value_____=
1.231653667943533D-16
CON: Condition number HEVA/LEVA___________~=
9.8472434458251927D+16
DET: Determinant original matrix (OMIKRON)_=
7.0117460906511204D-311
DET: Determinant (CHOLESKY-Diagonal^2)_____= -999 (not
positive definit)
DET: Determinant (PESO-CHOLESKY)___________= -999 (not
positive definit)
DET: Determinant (product eigenvalues)_____=
9.0445591875794537D-288
DET: Determ.abs.val.(PESO prod.red.norms)__=
2.4166237250046527D-305
HAC: HADAMARD condition number_____________=
4.2802805323044723D-326
HCN: Heuristic condition |DET|CON__________=
7.1205166493815068D-328
D_I: Determinant Inverse absolute value____=
1.4261782829434125D+310
HDA: HADAMARD Inequality absolute value___<=
6.6012387255461321D+805
HIR: HADAMARD RATIO: D_I / HDA ____________=
2.1604706968470107D-496
Highest inverse positive diagonal value____=
6.1320276307547572D+17
thus multiple r( 36.rest)_________________=
1
and 40 multiple r > .99
Highest inverse negative diagonal value____= -2.7045665954126227D+14
thus multiple r( 12.rest)_________________=
1 (!)
and there are 6 multiple r > 1 (!)
Maximum range (upp-low) multip-r( 33.rest)_=
1.43
LES: Numerical stability analysis:
Ratio maximum range output / input _______=
17456.262842276092
PESO-Analysis correlation least Ratio RN/ON=
0 (<-> Angle = 0 )
Number of Ratios correlation RN/ON < .01__ =
18
PESO-Analysis Cholesky least Ratio RN/ON__ = (Not positiv definit)
Ncor L1-Norm L2-Norm Max
Min m|c| s|c| N_comp
M-S S-S
2116 546.6 15.05 1
-.618 .242 .17 535095
.19 .147
class boundaries and distribution of the correlation coefficients
-1 -.8 -.6 -.4 -.2 0
.2 .4 .6 .8 1
0 2 4
52 338 646 654 306 66 48
(Die Ausgabe der Korrelationskoeffizienten wird hier aus Platz- und Redundanzgründen weggelassen)
i.Eigenvalue Cholesky i.Eigenvalue
Cholesky i.Eigenvalue Cholesky
1. 12.12839 1
2. 4.5171 .8527
3. 3.96495 .7917
4. 3.30509 .6109
5. 2.58961 .6025
6. 2.15586 .7398
7. 1.95287 .7895
8. 1.81432 .8427
9. 1.63352 .7356
10. 1.47482 .7095 11.
1.39972 .7438 12. 1.33091
.7548
13. 1.22362 .8694 14.
.93888 .562
15. .83921 .5877
16. .74385 .4951
17. .7331 .4818
18. .59067 .449
19. .52315 .487
20. .46418 .5609
21. .36498 .4004
22. .32268 .4007
23. .2653 .3852
24. .22663 .3703
25. .18479 .2532
26. .13177 .3484
27. .09833 .289
28. .08166 .0761
29. 0 0
30. 0 0
31. 0 0
32. 0 -.8776
33. 0 -.1378
34. 0 -.754
35. 0 -1.5071
36. 0 -1.6042
37. 0 -.1205
38. 0 -2.4261
39. 0 -1.441
40. 0 -1.6764
41. 0 -2.989
42. 0 -1.6128
43. 0 -1.0545
44. 0 -2.8807
45. 0 -.6181
46. 0 -2.3103
The matrix is not positive definit. Cholesky decomposition is not successful.
Eigenvalues in per cent of trace = 45.999999999999991
1 .2637 2 .0982 3 .0862
4 .0718 5 .0563 6 .0469
7 .0425 8 .0394 9 .0355
10 .0321 11 .0304 12 .0289
13 .0266 14 .0204 15 .0182 16 .0162
17 .0159 18 .0128
19 .0114 20 .0101 21 7.9D-3 22 7D-3
23 5.8D-3 24 4.9D-3
25 4D-3 26 2.9D-3 27 2.1D-3 28 1.8D-3 29 0
30 0
31 0 32 0
33 0 34 0 35
0 36 0
37 0 38 0
39 0 40 0 41
0 42 0
43 0 44 0
45 0 46 0
analysed: 09/01/99 00:22:26 PRG version 05/24/94 MA9.BAS
File = C:\OMI\NUMERIK\MATRIX\SMA\MEID\MEID.SMA
with data from C:\OMI\NUMERIK\MATRIX\SMA\MEID\MEID.D46
Notwendigkeit der "Therapie" der 18 negativen Eigenwerte
Eine Korrelationsmatrix muß positiv definit sein, das bedeutet, sie darf keine negativen Eigenwerte enthalten, sonst ist eine Cholesky-Zerlegung oder Hauptkomponentenanalyse vom Typ R = F * F', die positive Definitheit verlangt, auch nicht möglich. Enthält sie negative Eigenwerte, könnten die multivariaten Verfahren zu völlig entgleisten und unzulässigen, auf jeden Fall aber völlig unzuverlässigen und wissenschaftlich nicht zu verantwortenden Werten führen, wie z. B. zu multiplen Korrelationskoeffizienten >> 1. Den größten entgleisten multiplen Korrelationskoeffizienten fand ich bei der Thurstone-Schülerin R. E. Wright mit r(19.rest) = 15.449 (!). Sie lesen durchaus richtig: Fünfzehn-Komma-vier-vier-neun. [Quelle und Beleg: Kapitel 9, W].
Methode 1: Bei meinen Matrixanalysen 1994 fand ich durch Zufall heraus, daß die Thurstone'sche Zentroidmethode aus numerisch negativ definiten wieder positiv definite Matrizen erzeugen kann. Bevor wir also eine Hauptkomponenten-Analyse nach dem Modell R = F*F´, die nur bei positiver Definitheit zuverlässig möglich ist, durchführen, müssen wir die Matrix in Ordnung bringen, d. h. positiv definit machen mit minimalster Veränderung. Eine optimale Lösung, wenn es eine gibt, erhält man gewöhnlich, wenn man mit voller Faktorenzahl rechnet.
Methode 2: Im vorliegenden Fall sind die negativen Eigenwerte allesamt sehr klein und sicher ein Resultat aus Kollinearität, Rundungsfehlern und Rechnerungenauigkeit (Computerrechnen ist ja durch die Endlichkeit der Zahlengenauigkeit im Grunde Intervallrechnen). Daher wäre es hier gerechtfertigt, alle negativen Eigenwerte 0 zu setzen oder gleich wegzulassen. Man könnte dann aus den 28 verbleibenden Eigenwerten und den dazugehörigen Vektoren direkt die Faktoren berechnen.
Methode 3: Eine andere von MathematikerInnen häufig angewandte Methode zu numerischen Stabilisierung ist die sog. SVD (Singular Value Decompensation), die Singulärwertzerlegung. Sie läuft im wesentlichen darauf hinaus, sehr kleine negative Eigenwerte 0 zu setzen. Auf diese Methode wird hier nicht näher eingegangen. Sie wird aber innerhalb des nächsten Jahres durch die Internet-Publikation des Kapitel 5 "'Therapie' numerisch destruktiv instabiler Matrizen" abgehandelt und dokumentiert.
Erstes
"Therapie"-Verfahren: Therapie mit Hilfe der Thurstone'schen Zentroidmethode.
Wir berechnen nun die 46 Zentroidfaktoren und multiplizieren
anschließend die Zentroidfaktoren mit ihrer Transponierten. Daraus
entsteht dann die aus den Zentroidfaktoren rückgerechnete Korrelationsmatrix,
die wir einer erneuten Matrixanalyse unterziehen müssen, um festzustellen,
ob die Matrix inzwischen wieder positiv definit ist, um mit der nunmehr
wieder positiv definiten aus den Zentroidfaktoren rückgerechneten
Korrelationsmatrix eine Hauptkomponentenanalyse zu rechnen.
Details und Dokumentation der Zahlenwerte der Zentroid-Faktorenanalyse hier. |
Matrix-Analyse
der mit der Thurstone'schen Zentroid-Faktorenanalyse rückgerechneten
Korrelationsmatrix Details hier
Hauptergebnis: Tatsächlich gelingt die Cholesky-Zerlegung, d. h. aus der ursprünglich 18-fach negativ definiten Matrix wird durch die Anwendung der Thurstone'schen Zentroidmethode wieder eine positiv definite Matrix, mit der nun multivariat weitergearbeitet werden kann. Am dieser Stelle könnten wir überlegen, ob die Hauptdiagonalelemente größer 1 nicht zurückgesetzt werden (wurde hier nicht gerechnet). |
Eine genaue Analyse der Eigenwerte mit unterschiedlichen Programmen ergab, daß die "Therapie" mit MatLab, einem sehr genauen und hochleistungsfähigen Mathematikprogramm, nicht gelingt. Dokumentation siehe bitte hier. Mit unserem nicht ganz so genauen und nicht so leistungsfähigen Programm erweist sich die aus den Zentroidfaktoren rückgerechnete Korrelationsmatrix aber als positiv definit. |
Residualanalyse zwischen originaler und 2. Korrelationsmatrix
Vergleich zwischen den originalen Korrelationskoeffizienten (17-stellige Genauigkeit) mit den aus den Zentroidfaktoren rückgerechneten Korrelationskoeffizienten mit den tatsächlichen Hauptdiagonalelementen.
(Meid.d46 mit Meidto.F56)
Matrix A from C:\OMI\NUMERIK\MATRIX\K\M\MEID.D46
Matrix B from C:\OMI\NUMERIK\MATRIX\K\M\MEIDZO.F46
Matrix RES(iduals) in C:\OMI\NUMERIK\MATRIX\K\M\MEID.RES
Analysis from 04/30/01 02:00:44
******************* Residual analysis
*********************
Matrix residuals (whole matrix inclusive diagonal):
Mean absolute values of residuals = 0.00629
Sigma absolute values of residuals = 0.00864
Maximum range absolute values = .15847 (r11.11)
Matrix residuals upper triangular matrix without diagonal:
Mean absolute values of residuals = 0.00547
Sigma absolute values of residuals = 0.00419
Maximum range absolute values = .02061 (r27.43)
Residual-Analysis: Mean= 6.29E-3 Sigma= 8.64E-3 Maximum range= .15847 (r11.11)
Ergebnis (Zahlenwertedokumentation hier): Nach dem Verfahren nach Cooley & Lohnes (1971). Multivariate Data Analysis. New York: John Wiley. p. 111 (nach der Formel: Quadratwurzel aus den Eigenwerten * Eigenvektoren = Faktoren [Achtung!]) kann die Korrelationsmatrix durch 18 Eigenwerte sehr nahe bei 0 - wie oben ausgeführt - artefiziell bedingt auf 28 Faktoren reduziert werden. Wie man sieht, läßt sich die Ursprungsmatrix sehr gut reproduzieren (genauer: siehe bitte Residualanalyse). Aus dem Algorithmus und der Formel von Cooley & Lohnes (1971, p. 111) wird sofort klar, daß diese Methode bei negativen Eigenwerten nicht funktionieren kann, weil die Quadratwurzel aus negativen Werten zu imaginären und komplexen Lösungen führt, die empirisch meist keinen psychologischen Sinn ergeben. Die sehr kleinen negativen Eigenwerte wurden daher 0 gesetzt. Es bleiben dann 28 Faktoren, aus denen die ursprüngliche Korrelationsmatrix sehr genau zurückgerechnet werden kann, wie man unten sieht. |
Rückgerechnete
2. Korrelationsmatrix aus den 28 Faktoren mit den originalen Hauptdiagonalelementen
dreistelig
dokumentiert hier
Die zweite Matrixanalyse der rückgerechneten Korrelationsmatrix aus den 28 Faktoren mit den originalen (= nicht 1 gesetzten) Hauptdiagonalelementen Vollständige Dokumentation hier
Residualanalyse
zwischen originaler und 3. rückgerechneter Korrelationsmatrix
Ergebnis: Die aus den 28 Faktoren rückgerechnete Korrelationsmatrix unterscheidet sich von der originären nur an der 16 bis 17 Nachkommastelle. Die Hauptkomponentenanalyse mit 28 Faktoren liefert also eine für praktische Verhältnisse gleiche, ja identische Reproduktion innerhalb 15 Nachkommastellen. |
Matrix A from C:\OMI\NUMERIK\MATRIX\K\M\MEID.D46
Matrix B from C:\OMI\NUMERIK\MATRIX\FAK\NEU\MEID.F46
Matrix RES(iduals) in C:\OMI\NUMERIK\MATRIX\K\M\MEID.RES
Analysis from 04/30/01 13:20:26
******************* Residual analysis
*********************
Matrix residuals (whole matrix inclusive diagonal):
Mean absolute values of residuals = 1.831209404051221D-17
Sigma absolute values of residuals = 2.1471468398468865D-17
Maximum range absolute values = 2.196593601455632D-16
(r12.12)
Matrix residuals upper triangular matrix without diagonal:
Mean absolute values of residuals = 1.575062009535241D-17
Sigma absolute values of residuals = 0
Maximum range absolute values = 8.9988780316296868D-17
(r31.32)
Residual-Analysis: Mean= 0 Sigma= 0 Maximum range= 0 (r12.12)