Internet Publikation  für Allgemeine und Integrative Psychotherapie
(ISSN 1430-6972)
IP-GIPT DAS=18.04.2001 Internet-Erstausgabe, letzte Änderung: 19.01.20
Impressum: Diplom-Psychologe Dr. phil. Rudolf Sponsel   Stubenlohstr. 20   D-91052 Erlangen
Mail: sekretariat@sgipt.org_ Zitierung & Copyright
Anfang
  Faktorenanalyse 7.7_Datenschutz_Überblick  _ Relativ Aktuelles  _ Rel. Beständiges  _ Titelblatt  _ Konzept  Archiv  _ Region _ Service iec-verlag _ Mail: _ sekretariat@sgipt.org  _ Zitierung & Copyright

Willkommen in der Abteilung Wissenschaftstheorie, Methodologie und Statistisch-Mathematische Methoden in der Allgemeinen und Integrativen Psychologie, Psychodiagnostik und Psychotherapie, hier:

1. Teil 18.4.2001
Querverweise: Überblick Faktorenenalyse _
Überblicks: Numerisch instabile Matrizen und Kollinearität in der Psychologie
 

7.7  Was für ein Typ Matrix entsteht
        durch Faktorenanalysen?1)

7.7.0  Zusammenfassung:
 
(1) Jede rangreduzierte Matrix ist singulär. (2) Jede Korrelationsmatrix steht in strenger Relation zu den Urdaten (HAINscher Satz zur Isometrie der Cholesky-Matrix [der Korrelationsmatrix]. Auch daraus folgt: Jeder Eingriff in die Korrelationsmatrix ist einem Eingriff in die Urdaten äquivalent. (3) Eine Approximation ist daher nur dann möglich, ohne die Urdaten zu fälschen, wenn die Matrix von vorneherein Eigenwerte nahe 0 enthält (also Kollinearitäten). (4) Eine Rangreduktion ist dann genau in dem Maße möglich, wie die Matrix Eigenwerte nahe 0 enthält. (5) Eigenwerte EW   0 <<   EW   < 1  Null zu setzen ("Scree-Test" -> 7.11) bedeutet, die Originalmatrix nicht reproduzieren zu können. Denn: (6) Jede Reproduktion einer Korrelationsmatrix aus Faktoren muß die ganze Korrelationsmatrix reproduzieren und nicht nur einen Teil jenseits der Diagonale. (7) Andernfalls wird meist eine indefinite Matrix reproduziert, die mit der ursprünglichen Korrelationsmatrix nichts zu tun hat: dies wird über die Residualanalyse an zahlreichen empirischen Beispielen belegt. (8) Falsch ist es, die Hauptdiagonalelemente durch irgendwelche andere Bedeutungsträger wie z.B. der Reliabilitäten oder der multiplen Korrelationskoeffizienten zu ersetzen: man kann nicht Birnen durch Äpfel reproduzieren. (9) Die Grundidee der Faktorenanalyse ist in Ordnung, aber die operationale Realisation, das Modell ist unangemesen: es stiftet nur Verwirrung; die Ergebnisse sind widersprüchlich und bestenfalls trivial und läppisch. In nun fast 60 Jahren ist keine einzige nennenswerte Erkenntnis durch Faktorenanalyse gewonnen wurden. (10) Die Faktorenanalyse, insbesondere die THURSTONEsche Centroidmethode ist aber geeignet, geringfügig indefinite Matrizen auf positive Definitheit zu therapieren -> 5.6, 5.7).

7.7.1  Die Grundidee

Die Grundidee der Faktorenanalyse, beobachtbare Variablen durch Faktoren konstitutiert zu denken, ist einleuchtend.

Historisch entstand die Idee der Faktorenanalyse aus der Intelligenzforschung (SPEARMAN). Man dachte sich "die" <Intelligenz> aus verschiedenen elementaren "Faktoren" additiv zusammengesetzt. Die additive Vorstellung ist die erste nicht nachvolziehbare Restriktion der operationalen Realisation. Man kann die beobachtbaren Variablen als "Moleküle" interpretieren, deren "atomare" Zusammensetzung gesucht wird. Statt nun intensive inhaltliche Forschung und Denkarbeit zu leisten, bevor man ein Modell aufstellt, entschloß man sich relativ frühzeitig im 4. Jahrzehnt des 20. Jahrhunderts, psychologische Kompetenz an formale, mathematisch- statistische Technik abzugeben. Mit dieser Entscheidung, nicht mehr selbst zu denken, sondern Faktorenanalysen "denken" zu lassen, begann das Elend der Psychometrie und der größte Bluff - fest an der Brust der sog. "klassischen Testtheorie" - der Psychologiegeschichte nahm seinen unheilvollen Weg. Wir zeigen nun, weshalb man die meisten Faktorenanalaysen zurecht als Datenfälschung bezeichnen darf, die ihrem Anspruch überhaupt nicht, auch nicht annäherend angemessen sind.
 

7.7.2  Mathematische Formulierung der Aufgabe

Gegeben sei eine Korrelationsmatrix R vom Rang r. Gesucht ist eine beste Approximationsmatrix F vom Rang f für f < r; beste soll heißen, daß die Residuen R-F minimal werden, idealiter Null - und zwar der g a n z e n Matrix!

Eine Lösung dieser Aufgabe wurde schon 1936 von Carl ECKART & Gale YOUNG im ersten Band der Psychometrika 1936 unter Bezugnahme auf COURANT-HILBERT (1924), MacDUFFEE (1933) und SYLVESTER(1889) gegeben:

"Theorem I. For any real matrix a, two orthogonal matrices  u and U can be found so that L =uaU' is a real    diagonal matrix  with no negative elements.

...The equation of the theorem may also be written a = u'LU (10).  ...This matrix is closeley related to the matrix of correlation  coefficients of the tests. It is seen that

a = aa' = u'LL'u = u'v(exp2) u,

and since LL'=v(exp2)  is a diagonal matrix, it follows that u is one of the orthogonal matrices which transform the correlational matrix  to diagonalform." (p.213)

P. 216 geben die Autoren den Algorithmus an, wie die beste Approximationsmatrix ß für einen gewünschten Rang f zu finden ist:

"The procedure of finding ß may be summarized: (1) express a in the canonic form of Eq.(12.1); (2) replace all but r of the diagonal  elements Lambda by zeros, beginning with the smallest and continuing  in order of increasing magnitude. (3) The resulting matrix is M, and ß is given by Eq. (12)."

Die Methode, Eigenwerte 0 zu setzen ist äquivalent mit der in der Mathematik bekannten Methode der Singulärwertzerlegung, die man einsetzt, um mit singulären und fast-singulären Matrizen noch rechnen zu können. Die dahinterstehende Idee ist: Werte die sehr nahe bei 0 und sehr klein sind, haben bei der Matrixinversion einen gigantischen Hebeleffekt, der zu massiven Fehlern führen kann. Dieser Fehler wird kontrolliert, indem für ein gegebenes Problem sehr kleine Werte gleich 0 gesetzt werden, wodurch sie keinen Schaden mehr anrichten können (PRESS et.al. 1989 Chap. 2.9 Singular Value Decomposition; HÄMMERLIN & HOFFMANN 1989 6.1 Die Singulärwertzerlegung einer Matrix). [FN02]

Zum Problem der Approximationsgüte äußern sich ECKART & YOUNG leider nicht -> 7.7.E  Exkurs.

Literatur:

  • ECKART,C., YOUNG,G. (1936). The Approximation of one Matrix by annother of Lower Rank. Psychometrika - Vol.1,No.3,1936,211-218
  • HÄMMERLIN, G. & HOFFMANN, K.-H.(1989). Numerische Mathematik. Berlin:
  • PRESS,W.H., BRIAN, P.F., TEUKOLSKY,S.A., VETTERLING, W.T.  (1989). Numerical Recipes.  The Art of Scientific Computing.  Cambridge University Press.

  • 7.7.3  Über Faktorenanalytisches Zaubern

    Was kann man tun, wenn eine Korrelationsmatrix von vorneherein keine Eigenwerte nahe 0 hat, sondern nur solche, welche deutlich (>.05) darüber liegen? Eigentlich nichts!
     
    Rangreduktion ist nur um den Preis möglich, daß die Reproduktion nicht gelingt: Rangreduktion gelingt also genau dann, wenn die Reproduktion scheitert - eine wahrhaft paradoxe Situation. 

    Die Faktorenanalytiker konnten sich damit nicht abfinden. Ihre Motive zur Rangreduktion sind so stark, daß sie auf Gedeih und Verderb nach Methoden suchten, ein unlösbares Problem zu lösen. Dies führte in eine kollektive Perpetum-Mobile-Neurose, deren Symptome wir nun betrachten wollen. So erfand man das "Kommunalitäten"-Problem. Man wußte, daß der stärkste Effekt bei den Korrelationsmatrizen zu erzielen war, wenn man die Hauptdiagonale veränderte. Also suchte man nach Rechtfertigungen, die Hauptdiagonalelemente der Korrelationsmatrix zu verändern. Es entstand ein kollektiver "blinder Fleck", d.h. man nahm offenbar ohne Skrupel in Kauf, daß man dann keine Korrelationsmatrix mehr hat, sondern eine völlig neue Matrix, die mit einer Korrelationsmatrix überhaupt nichts mehr zu tun hat -> 1.4.2 und HAIN 6.2. Was immer man auch in die Hauptdiagonale einsetzt, ob Reliabilitäten oder multiple Korrelationskoeffizienten, die neue Matrix ist keine Korrelationsmatrix mehr. Die Korrelation eines Datenvektors mit sich selbst muß natürlich maximal sein, d.h. +1 für die Hauptdiagonalelemente.
     
    Es gibt kein "Kommunalitätenproblem": seine Erfindung i s t  das Problem - und verlangt im Sinne WATZLAWIKs et. al. (1979 p.59: 2.) eine Lösung 2. Ordnung und mein Vorschlag heißt: ersatzlos streichen.

    Literatur:

  • WATZLAWIK,P., WEAKLAND,J.H., FISCH,R. "Lösungen. Zur Theorie und Praxis des menschlichen Wandels", dt. Bern 1979

  • 7.7.4 Von der faktorenanalytischen Kunst der Täuschung

    Interessant in diesem Zusammenhang sind faktorenanalytische Veröffentlichungen. Wenn man auf die Reproduktionsgüte der faktorrückgerechneten Matrix überhaupt eingeht, was selten der Fall ist, dann wird üblicherweise nur der Teil jenseits der Hauptdiagonale mitgeteilt und davon die Residuen angegeben (um zu verbergen, was man angerichtet hat, falls man es überhaupt weiß). Den Trick, die Hauptdiagonale einfach wegzulassen bei der Residuendarstellung, wandte schon THURSTONE an (1947, p.169). Teilt man die Haupt-Diagonalwerte mit, setzt man sie in Klammern, was korrekt ist, nur sagt man üblicherweise nicht dazu, daß das Produkt gar keine Korrelationsmatrix mehr ist. Auch die falsche Bezeichnung "Korrelationsmatrix" für Matrizen, die in der Hauptdiagonale nicht 1 stehen haben, geht offenbar auf  THURSTONE zurück (1947, p.88, 102, 105, 114,...)

    Ganz neu und völlig abzulehnen sind Halbveröffentlichungen: man teilt nur die Faktoren mit ohne Korrelationsmatrix oder gar nur einen Teil der Faktoren, so daß die Veröffentlichung nicht mehr nachgerechnet werden kann.


    7.7.5    Methode der Residual-Bestimmung:

    Die Residuenbestimmung in der Faktorenanalyse ist seltsam, da man offenbar die Hauptdiagonale ausklammert, als ob die nicht zur Matrix gehörte. Solche Praktiken sind in ihrer Unwissenschaftlichkeit zutiefst unethisch und von daher scharf abzulehnen.

     Wir bestimmen die Residuen daher wissenschaftlich korrekt wie folgt:

           RES = |K| - |K*|   (1)               RES = |K| - |K*|   (1)
           K* = F * F'     (2)                     K* = F * F'     (2)

    mit K als Originalkorrelationsmatrix und K* die aus den Faktoren nach (2) gewonnene reproduzierte Matrix. Aus (1) werden berechnet:
     


    Natürlich darf man nicht die übliche Mittelwertberechnung zu Grunde legen, da sich positive oder negative Abweichungen wegheben könnten, sondern man muß die Absolutbeträge der Abstände nehmen, um eine angemessene Schätzung der Abweichungen zu erhalten. Das <Maximum range> gibt die größe Abweichung unter den Residuen an.

    Die Frage der Approximationsgüte ist nicht geklärt. Intuitiv meine ich, kann nur eine Lösung akzeptiert werden, bei der jedes  Residuum zwischen Matrix und Originalmatrix einen geringen Betrag ausmacht, d.h. in praxi, daß k e i n  einziger Ausreißer, natürlich auch nicht in der Hauptdiagonale toleriert werden darf -> 7.7.E  Exkurs, -> 5.0.


    7.7.6   Beispiele & empirische Belege

    Wie eine Faktorenanalyse wissenschaftlich  korrekt durchgeführt werden kann, wird gezeigt in:
    (Anklickbare können aufgerufen werden)

    -> 8  HARTUNG,J., ELPELT,B.(3a-d)

    Einige ausgewählte Beispiele wo die Reproduktionen explizit nachgewiesen scheitern:
    (Anklickbare können aufgerufen werden, im Laufe der Zeit werden hier alle dokumentiert, die Ziffer 8 nennt die Quelle der Stelle im Buch, an der die Reproduktionen dokumentiert werden)

    -> 8  BÄUMLER, G., RIEDER, H. (1b,2b,3b,4b,5b,6b,7b,8b,9b)
    -> 8  BERNSTEIN, I.H. (3b)
    -> 8  COMREY, A.L,  LEE, H.B. (1b,4b)
    -> 8  DAUMENLANG, K., JOHANN, G.K. (1b)
    -> 8  GOLDMAN, R.S. et.al. (1b,2b)
    -> 8  ENCYCLOPEDIA OF STAT...(1b)
    -> 8  HARMAN, H.H. (2ab, 8b)
    -> 8  HARTUNG, J., ELPELT, B.(1b)
    -> 8  IRVINE, S.H., .DANN, P.L (1b-d)
    -> 8  KNOL, D.L., TEN BERGE  (FA as therapy method)
    -> 8  MICHELAT, G., THOMAS,  J.-P.H. (1b, 1c)
    -> 8  PAWLIK, K.(4b,4b')
    -> 8  PERRON, R. (1b)
    -> 8  RIEDER, H., BÄUMLER, G.(1b)
    -> 8  SEITZ, W., BÄUMLER, G. (1b)
    -> 8  THURSTONE, L.L.(2b "Primary..."
    -> 8  THURSTONE, L.L. (8b)
    -> 8  THURSTONE, L.L. (12aa trapezoid)
    -> 8  WEBSTER,A., WALKER,M.B.(1b)


    7.7.E  Exkurs: Zur Psychologie der Faktorenanalytiker

    Sie bewegen sich in n-dimensionalen Räumen und jonglieren mit Begriffen, die Respekt heischen und dem Unkundigen gewaltig imponieren. Man schwelgt im der Illusion, exakt zu sein und wähnt sich schon den Physikern gleich. Endlich hat man es geschafft: von den exakten Wissenschaften anerkannt zu werden. Und man gefällt sich natürlich in der Rolle, zu den wenigen "Eingeweihten" zu gehören, die hier mitreden können. Das ganze gleicht mehr einer speziellen numerisch- esoterischen Sekte als einer Wissenschaft und ihr Zentralorgan heißt "Psychometrika". Wenn eine Sekte sich durchsetzt, dann wird sie, soziologisch betrachtet, zur Staatsreligion, hat also die Macht einer Staatskirche. Und so sieht es auch aus in der Psychologie. Physiker? Ich denke, das ist noch nicht einmal vor-galileiische Scholastik, das ist noch eher das Stadium pythagoräischer Zahlenmystik.

    ende 7.7



    Querverweis: Überblicks- und Verteilerseite: Numerisch instabile Matrizen und Kollinearität in der Psychologie - Ill-Conditioned Matrices and Collinearity in Psychology -   Diagnose, Relevanz & Utilität, Frequenz, Ätiologie, Therapie. (https://www.sgipt.org/wisms/nis/nis_ueb0.htm)

    Fn_01  Deutsche Version Kapitel 7.7. aus: Sponsel, Rudolf & Hain, Bernhard (1994). Numerisch instabile Matrizen und Kollinearität in der Psychologie. Diagnose, Relevanz & Utilität, Frequenz, Ätiologie, Therapie.  Ill-Conditioned Matrices and Collinearity in Psychology. Deutsch-Englisch. Übersetzt von Agnes Mehl. Kapitel 6 von Dr. Bernhard Hain: Bemerkungen über Korrelationsmatrizen (enthält bedeutsame Sätze über Korrelationsmatrizen, ihre Definitheit und Bedeutung). Erlangen: IEC-Verlag [ISSN-0944-5072  ISBN 3-923389-03-5]. Aktueller Preis
    FN02  Im Prinzip ist das das Verfahren der Faktorenanalyse: kleine Eigenwerte werden 0 gesetzt (ECKART,C., YOUNG,G. 1936). Mathematiker und Faktorenanalytiker unterscheiden sich allerdings um einige 10-er Potenzen in der Auffassung, wann ein Eigenwert "klein" ist (PRESS,W.H. et.al. p.54 wählen als Kriterium die Grenze der Fließpunktgenauigkeit des Computers, bei einfacher Genauigkeit also eine Konditionszahl von 10^6 und bei doppelter Genauigkeit 10^12. Das SCREE- "Test"- Kriterium CATTELLs oder KAISERs Faustregel ist hingegen jeder Eigenwert kleiner 1, ein höchst seltsame Auffassung von "klein". Die mathematische und die psychologisch-faktorenanalytische Aufassung unterscheiden sich in der Größenordnung also um den Faktor 1 Million bis 1 Billion (!).



    Zitierung
    Sponsel, Rudolf  (DAS). Was für ein Typ Matrix entsteht durch Faktorenanalysen? Deutsche Version Kapitel 7.7. aus: Sponsel, Rudolf & Hain, Bernhard (1994). Numerisch instabile Matrizen und Kollinearität in der Psychologie. Diagnose, Relevanz & Utilität, Frequenz, Ätiologie, Therapie.  Ill-Conditioned Matrices and Collinearity in Psychology. Deutsch-Englisch. Übersetzt von Agnes Mehl. Kapitel 6 von Dr. Bernhard Hain: Bemerkungen über Korrelationsmatrizen (enthält bedeutsame Sätze über Korrelationsmatrizen, ihre Definitheit und Bedeutung). Erlangen: IEC-Verlag [ISSN-0944-5072  ISBN 3-923389-03-5] IP-GIPT. Erlangen: https://www.sgipt.org/wisms/fa/fa7_7.html
    Copyright & Nutzungsrechte
    Diese Seite darf von jeder/m in nicht-kommerziellen Verwertungen frei aber nur original bearbeitet und nicht  inhaltlich verändert und nur bei vollständiger Angabe der Zitierungs-Quelle benutzt werden. Das Einbinden in fremde Seiten oder Rahmen ist nicht gestattet - Links sind natürlich willkommen. Sofern die Rechte anderer berührt sind, sind diese dort zu erkunden. Sollten wir die Rechte anderer unberechtigt genutzt haben, bitten wir um Mitteilung. Soweit es um (längere) Zitate aus  ...  geht, sind die Rechte bei/m ... zu erkunden oder eine Erlaubnis einzuholen.


      Ende   Faktorenanalyse 7.7__Datenschutz_Überblick  _ Relativ Aktuelles  _ Rel. Beständiges  _ Titelblatt  _ Konzept  Archiv  _ Region _ Service iec-verlag _ Mail: _ sekretariat@sgipt.org  _