Skip to main content
Published Online:https://doi.org/10.1026/0033-3042.56.3.191

Zusammenfassung. Es wurden 436 empirische Arbeiten aus 14 psychologischen Fachzeitschriften der Jahre 2001 und 2002 u.a. daraufhin analysiert, mit welchen statistischen Verfahren gearbeitet wurde - überwiegend mit Globaltests, gefolgt von Dateninspektionen oder multiplen Vergleichen, und zwar unabhängig davon, ob die vorangestellten psychologischen Hypothesen oder Fragen gerichtet waren oder nicht. Der Kumulation der statistischen Fehlerwahrscheinlichkeiten wurde kaum Beachtung geschenkt, ebenso wenig den Voraussetzungen für parametrische statistische Verfahren. Ferner wurde fast durchgängig ohne Zufallsstichproben gearbeitet, sondern stattdessen mit “Gelegenheitsstichproben“. Inwieweit mit der Randomisierung gearbeitet wurde, ließ sich nicht erkennen, da nur für wenige Studien explizit angegeben wurde, dass randomisiert wurde. Insgesamt wurden in 250 Artikeln 391 psychologische Hypothesen geprüft, und in 301 Untersuchungen wurde mit “Forschungsfragen“ ohne explizite Hypothesen operiert. Eine Kontrolle der Teststärke fand nur in 10 Fällen statt. Mit großem Abstand am häufigsten eingesetzt wurde die statistische Hybride aus der Signifikanztesttheorie von Fisher und der Neyman-Pearson-Theorie eingesetzt, gefolgt von der Fisher-Theorie. Nur in 10 Arbeiten wurde die Theorie des statistischen Hypothesentestens von Neyman und Pearson eingesetzt, in der mit der Teststärke und Effektgrößen operiert wird; statistische Analysen nach dem Bayes-Theorem wurden ebenso wenig durchführt wie sequenzielle Tests nach Wald. Parameterschätzungen und Likelihood-Quotienten-Tests wurden nur gelegentlich eingesetzt.


Procedures in German empirical research - an analysis of some psychological journals of the years 2001 and 2002

Abstract. 436 articles in 14 German psychology journals of the years 2001 and 2002 were analyzed with respect to statistical tests employed. The assumptions of the statistical tests employed, in nearly all cases global tests such univariate or multivariate analyses of variance, were not tested in the majority of cases. The cumulation of error probabilities, which took place in every study, was only rarely mentioned or controlled. In most cases no random samples were drawn, and the data were based on “convenience samples“. Accordingly, generalizations were the exception rather than the rule. Random samples were very rarely used (4.5%). In 250 studies, 391 psychological hypotheses were examined. In most of the articles the authors dealt with research questions instead of hypotheses. Control of statistical power took only place in ten cases. The prevailing statistical tool was the hybrid of Fisher’s and Neyman and Pearson’s theory, followed by the Fisher theory of significance testing, whereas the competing test theory of Neyman and Pearson was only seldom employed. Analyses according to the Bayes theorem were not found, and the same holds for sequential analyses according to Wald. In addition, estimation of parameters and application of likelihood ratio tests were seldom found.

Literatur