Skip to main content
Open AccessOriginalarbeit

Open Science in der deutschsprachigen Sportpsychologie

Eine empirische Analyse aktueller Forschungspraktiken

Published Online:https://doi.org/10.1026/1612-5010/a000404

Abstract

Zusammenfassung: Ziel des vorliegenden Artikels ist es, die Verbreitung unterschiedlicher Open-Science-Praktiken in Publikationen der deutschsprachigen Sportpsychologie zu untersuchen. Dazu wurde die in den Jahren 2020 und 2021 von Arbeitsgruppen in Deutschland, Österreich und der Schweiz publizierte sportpsychologische Literatur analysiert. Die Ergebnisse legen nahe, dass verschiedene Open-Science-Praktiken unterschiedlich häufig genutzt werden: Während beispielsweise knapp 50 % der analysierten Artikel in Open-Access-Modellen publiziert wurden, wurde in nur 2,4 % der Artikel der zur Analyse verwendete Code mitveröffentlicht. Zukünftige Diskussionen um Open-Science-Praktiken in der Sportpsychologie und Maßnahmen zu ihrer Förderung könnten somit von einem differenzierteren Umgang mit einzelnen Praktiken profitieren, statt Bezug auf das übergeordnete Konzept „Open Science“ zu nehmen. Die vorliegenden Daten können zudem als Grundlage für weitere Diskussionen zu Open Science in der deutschsprachigen Sportpsychologie dienen sowie als Vergleichsstandard für zukünftige Entwicklungen genutzt werden.

Open Science in the German-Speaking Sport Psychology Research Community. An Empirical Analysis of Current Research Practices

Abstract: This paper serves to determine the prevalence of several open science practices in publications from German-speaking sports and exercise psychologists. To this end, we analyzed the sport and exercise literature published in 2020 and 2021 by research groups in Austria, Germany, and Switzerland. Results suggest that the prevalence varies substantially for different practices. For example, whereas nearly 50 % of the papers were published in an open access model, the actual code was made public parallel to only 2.4 % of the papers. Future discussions of open science practices in sport and exercise psychology and interventions intended to increase their usage might benefit from targeting specific practices instead of referring broadly to the open science debate. Furthermore, the present data may be used as input for future discussions and as a benchmark for future developments.

Die psychologische Forschung geriet in den vergangenen Jahren vermehrt in die Kritik, da sich vermeintlich robuste Forschungsbefunde häufig nicht replizieren ließen. Nosek et al. (2022) analysierten sämtliche Replikationsstudien, die in der psychologischen Forschung bislang durchgeführt wurden (n = 307). Dabei zeigte sich, dass in 64 % dieser Studien die Ergebnisse in derselben Richtung ausfielen wie in den Originalstudien und dass in 68 % der Studien ähnlich große Effektstärken erzielt wurden. Allerdings ist die Heterogenität hinsichtlich der Anzahl erfolgreicher Replikationen beträchtlich: In einem groß angelegten Projekt der Open Science Collaboration (2015) konnten nur 39 % der Befunde von insgesamt 100 Studien aus renommierten psychologischen Zeitschriften repliziert werden (siehe auch Schweizer & Furley, 2016a). Im Bereich der Persönlichkeitspsychologie hingegen fand Soto (2019) in 90 % der von ihm replizierten Studien signifikante Effekte in derselben Richtung wie in den Originalstudien. Diese sogenannte Replikationskrise in der Psychologie (englisch crisis of confidence; Pashler & Wagenmakers, 2012) führte u. a. dazu, dass das Vertrauen in die psychologische Forschung in den letzten Jahren sowohl aufseiten der Rezipientinnen und Rezipienten (Maxwell et al., 2015; für eine kritische Diskussion siehe auch Dreiskämper, 2016) als auch aufseiten der Wissenschaftlerinnen und Wissenschaftler (Allum et al., 2023; Stürmer et al., 2017) eher moderat ausfiel.

Laut Fanelli (2009, 2012) lässt sich die Replikationskrise u. a. darauf zurückführen, dass das Innovationspotential einer Studie bei einigen Verlagen, Herausgebenden sowie Gutachtenden häufig mehr wertgeschätzt wird als reine Replikationsstudien (Nosek et al., 2012). Damit eng zusammen hängt die von Rosenthal bereits 1979 aufgezeigte File-Drawer-Problematik, die besagt, dass statistisch signifikante Forschungsbefunde eher publiziert werden als Nullbefunde – dies ist nach wie vor ein kritisches Thema (Publication Bias; siehe auch Fanelli, 2012). Ferguson und Heene (2012) sprechen auch heute noch von „psychology’s aversion to null results and failure to pu‍blish them“ (S. 555). Dies führe dazu, dass fragwürdige Forschungspraktiken (questionable research practices, QRPs) eingesetzt werden, um hypothesenkonforme Ergebnisse zu produzieren (Banks et al., 2016; siehe auch Wolff et al., 2018). Zu diesen fragwürdigen Forschungspraktiken gehören u. a. das nachträgliche Aufstellen von Hypothesen (hypothesizing after the results are known; HARKing; Kerr, 1998), das Anpassen von Auswertungsstrategien, um den kritischen p-Wert zu erreichen (p-Hacking; z. B. Simonsohn et al., 2014), das Nicht-Berichten nicht-signifikanter Ergebnisse (Cherry Picking; z. B. Franco et al., 2014) oder auch fragwürdige Herangehensweisen zur Bestimmung der erforderlichen Stichprobengröße bzw. Auswahl zu kleiner Stichproben (Caldwell et al., 2020; Schweizer & Furley, 2016b; Fiedler & Schwarz, 2016). Nelson und Kollegen (2018) kommen in diesem Zusammenhang zu dem Schluss: „Psychologists spent several decades relying on methods of data collection and analysis that make it too easy to publish false-positive, nonreplicable results“ (S. 512). Wie verbreitet solche Praktiken zumindest in der Vergangenheit waren, zeigt eine Studie von John et al. (2012), in der etwa die Hälfte der Befragten angab, in psychologischen Zeitschriftenartikeln bereits abhängige Variablen verschwiegen zu haben, nur solche Studien dargestellt zu haben, die im Sinne der Hypothese „funktionierten“, oder eine Entscheidung über die Fortführung der Datenerhebung erst im Anschluss an erste Datenanalysen getroffen zu haben (Signifikanz der Ergebnisse). Die Replikationskrise ist dabei keineswegs nur auf die Psychologie beschränkt; fragwürdige Forschungspraktiken sind in fast allen wissenschaftlichen Disziplinen prävalent (z. B. Gopalakrishna et al., 2022). Auch wenn bislang nur wenige Studien zu fragwürdigen Forschungspraktiken im Bereich der Sportwissenschaften vorliegen, gehen Caldwell und Kollegen (2020) davon aus, dass die Prävalenzen nahezu identisch ausfallen sollten: „Although the prevalence of such QRPs is yet to be established within sport and exercise science, given the interdisciplinary nature of this field and the direct overlaps with both the psychological and biomedical sciences, there is little reason to believe that this field is immune to these issues“ (S. 450; siehe auch Geukes et al., 2016; Halperin et al., 2018).

Als Reaktion auf die Replikationskrise wurden Rufe nach einer offenen Wissenschaft (Open Science) stetig lauter, um die Transparenz der Forschung zu erhöhen, eine Replizierbarkeit der jeweiligen Untersuchungen zu ermöglichen und das Vertrauen in die psychologische Forschung wiederherzustellen (z. B. Caldwell et al., 2020; Lakens & Evers, 2014; Munafò et al., 2017; Utesch et al., 2017). Open-Science-Praktiken (OSP) beinhalten u. a. die Präregistrierung von Studien, die Bereitstellung von verwendeten Untersuchungsmaterialien, Datensätzen und Analysecodes auf frei zugänglichen Repositorien (z. B. Open Science Framework, SportRχiv) sowie die Nutzung von Publikationsorganen mit Open-Access-Zugängen (Caldwell et al., 2020; Tamminen & Poucher, 2018; Utesch et al., 2017). Eine Spezialform der Präregistrierung stellen sogenannte Registered Reports dar, bei denen die Begutachtung, eine eventuelle Überarbeitung sowie die grundsätzliche Entscheidung über die Publikation eines Artikels auf der Basis des theoretischen Hintergrunds und des Studiendesigns vor der Datenerhebung stattfinden (Geukes et al., 2016). Dadurch soll eine ergebnisunabhängige Publikation des Artikels sichergestellt werden. Keine OSP im engeren Sinne sind Poweranalysen (z. B. Utesch et al., 2017). Jedoch tragen auch diese zur Transparenz eines Forschungsprozesses bei, indem offengelegt wird, anhand welcher Kriterien die in einer Studie gewählte Stichprobengröße geplant wurde. Poweranalysen sind daher zentraler Bestandteil von Präregistrierungen (z. B. Bosnjak et al., 2022).

Zur Förderung der offenen Wissenschaft wurde im angloamerikanischen Sprachraum in der Psychologie u. a. die Open Science Collaboration und in den Sportwissenschaften bspw. die Society for Transparency, Openness, and Replication in Kinesiology (STORK) ins Leben gerufen. Auch in der deutschsprachigen Sportpsychologie erfährt der Open-Science-Ansatz vermehrt Aufmerksamkeit, u. a. durch verschiedene Publikationen (z. B. Dreiskämper, 2016; Geukes et al., 2016; Schweizer & Furley, 2016a, 2016b; Utesch et al., 2017) und Stellungnahmen (z. B. Raab, 2017).

Wenngleich die Akzeptanz von OSP gestiegen ist (Christensen et al., 2020), ist weitgehend unklar, wie viele Wissenschaftlerinnen und Wissenschaftler ihre Studien tatsächlich präregistrieren und/oder ihre Daten, Codes und Materialien offenlegen. Hardwicke et al. (2022) analysierten 250 zufällig ausgewählte psychologische Forschungsartikel aus den Jahren 2014 bis 2017. Die Ergebnisse weisen darauf hin, dass nur in einem Bruchteil der analysierten Publikationen die Studien präregistriert (3 %), die Daten geteilt (2 %) und die Erhebungsinstrumente frei verfügbar gemacht wurden (14 %). Aus dem Bereich der Sportpsychologie liegen nach aktuellem Kenntnisstand der Autorinnen und Autoren bislang keine Erkenntnisse bzgl. der Verbreitung von OSP vor.

Eine solche datenbasierte Grundlage scheint u. a. deswegen relevant, weil die Deutsche Gesellschaft für Psychologie (DGPs) die sogenannte DORA-Erklärung (Declaration on Research Assessment) unterzeichnet hat. Schönbrodt et al. (2022) sowie Gärtner et al. (2022) geben konkrete Empfehlungen, wie die in der Erklärung enthaltenen Richtlinien für die Einstellung und Berufung von Wissenschaftlerinnen und Wissenschaftlern in der Psychologie umgesetzt werden könnten. Wesentlicher (wenn auch nicht einziger) Bestandteil dieser Empfehlungen ist, die Verwendung von OSP zentral in die Bewertung wissenschaftlicher Leistung miteinzubeziehen, vor allem bei der Berufung auf Professuren. Vor diesem Hintergrund scheint es wahrscheinlich, dass OSP in der gesamten Psychologie inklusive der Sportpsychologie an Bedeutung gewinnen werden. Gerade für Nachwuchswissenschaftlerinnen und Nachwuchswissenschaftler würden starke Anreize bestehen, ihre Forschung massiv an den Prinzipien von Open Science auszurichten, sollten die Empfehlungen wie vorgeschlagen umgesetzt werden. Allerdings erscheint es wünschenswert, dass Wissenschaftlerinnen und Wissenschaftler OSP nicht nur aufgrund dieser externen Anreize umsetzen, sondern vor allem, weil sie von deren Sinnhaftigkeit überzeugt sind. Auf die Sportpsychologie könnten also tiefgehende Veränderungen zukommen. Wie weitgehend und somit auch wie aufwändig diese Veränderungen sein werden, lässt sich jedoch kaum abschätzen, solange die aktuelle Verbreitung von OSP unbekannt ist.

Ziel der vorliegenden Studie war es daher, zu analysieren, wie verbreitet ausgewählte OSP in Publikationen der deutschsprachigen Sportpsychologie sind. Diese Analyse verspricht eine datenbasierte Grundlage für die aktuelle Diskussion um OSP in der deutschsprachigen Sportpsychologie, die über die reine Erfassung von Einstellungen zu OSP hinausgeht (z. B. Abele-Brehm et al., 2019). Darüber hinaus könnten die vorliegenden Daten perspektivisch möglicherweise genutzt werden, um Entwicklungen zu beschreiben, Interventionen zur Steigerung von OSP zu evaluieren sowie Bedarfe an Maßnahmen gezielt zu erheben.

Methode

Im ersten Schritt wurden über die Homepage der Arbeitsgemeinschaft für Sportpsychologie (asp) sportpsychologische Arbeitsgruppen in Deutschland, Österreich und der Schweiz identifiziert, deren Leiterin oder Leiter Mitglied der asp ist. Im zweiten Schritt wurden die Homepages der entsprechenden Arbeitsgruppen aufgerufen, die aktuell auf diesen Homepages gelisteten Mitarbeiterinnen und Mitarbeiter der entsprechenden Arbeitsgruppen identifiziert und die auf den Homepages verfügbaren Publikationslisten der Jahre 2020 und 2021 der betreffenden Mitarbeiterinnen und Mitarbeiter betrachtet. Manche Institutsseiten bedienten sich eines direkten Verweises auf ResearchGate oder Google Scholar, ohne eine eigene Publikationsliste anzugeben. In diesem Fall wurden die Publikationen über diese Seiten ermittelt. Darüber hinaus wurde im Verlauf der Recherche beschlossen, bei weniger als fünf auf der Homepage aufgelisteten Artikeln pro Jahr die Suche zusätzlich auf ResearchGate und Google Scholar zu erweitern. Berücksichtigt wurden dabei auch solche Artikel, die in den Jahren 2020 oder 2021 von einer Zeitschrift akzeptiert, aber noch keinem Band zugewiesen wurden (advance online publication). Im dritten Schritt wurde zwischen sportpsychologischen und nicht-sportpsychologischen Artikeln unterschieden. Ein Artikel wurde als sportpsychologisch kodiert, wenn er sowohl psychologische als auch sport- oder bewegungswissenschaftliche Inhalte (inklusive körperliche Aktivität) aufwies. Zunächst kodierte ein Autor alle Artikel als sportpsychologisch oder nicht. Unabhängig davon kodierte eine zweite Autorin ebenfalls alle Artikel als sportpsychologisch oder nicht. Für die quantitativ-empirischen Artikel betrug die Übereinstimmung zwischen diesen beiden Personen hinsichtlich der Kodierung als sportpsychologischer Artikel 80.3 %. Diese Übereinstimmung scheint auf den ersten Blick eher gering zu sein, kann jedoch hauptsächlich durch Artikel mit bewegungswissenschaftlichem bzw. Motorik-Schwerpunkt erklärt werden, die von einer der kodierenden Personen überwiegend als sportpsychologisch kodiert wurden, von der anderen jedoch nicht. Stimmten die Codes dieser beiden Personen bei einem Artikel nicht überein, wurde der finale Code im Rahmen einer Konsensdiskussion mit einem dritten Autor vergeben. Primär bewegungswissenschaftliche bzw. Motorik-Artikel wurden als Ergebnis der Konsensdiskussion ebenfalls als sportpsychologisch kodiert. Nur die als sportpsychologisch kodierten Artikel wurden in die weiteren Analysen aufgenommen.

Im vierten Schritt wurden aus den sportpsychologischen Artikeln diejenigen herausgefiltert, die für eine Anwendung von OSP grundsätzlich geeignet schienen. Dazu gehörten alle quantitativ-empirischen Untersuchungen. Nicht in die weitere Analyse aufgenommen wurden qualitativ-empirische Arbeiten, Metaanalysen, Reviews, theoretische Beiträge, Kommentare, Beiträge, die ausschließlich als Abstract vorlagen, und andere Publikationsarten.

Im fünften Schritt wurden alle Artikel, die die Einschlusskriterien erfüllten, im Hinblick darauf kodiert, ob folgende OSP erkennbar umgesetzt wurden: Open-Access-Veröffentlichung, Präregistrierung, Open Data, Open Code und Open Material. Zusätzlich wurde kodiert, ob eine Poweranalyse berichtet wurde. Der Code Open Access wurde vergeben, wenn der Artikel bei der betreffenden Zeitschrift in einem von der Zeitschrift angebotenen Open-Access-Modell veröffentlicht wurde. Artikel, die nicht frei zugänglich publiziert wurden, dann jedoch von den Autorinnen oder Autoren über private Homepages, R‍e‍s‍e‍a‍r‍c‍hGate oder ähnliche Dienste der Öffentlichkeit zugänglich gemacht wurden (der „Grüne Weg“ des Open Access; z. B. Deutsche Forschungsgemeinschaft, n. d.), wurden dagegen nicht als öffentlich zugänglich kodiert. Dieses Verständnis von Open Access betont, dass Open-Access-Publikationen genuin frei zugänglich sind und dass diese freie Zugänglichkeit von den Autorinnen und Autoren nicht wieder rückgängig gemacht werden kann. Studien wurden als präregistriert kodiert, wenn Forschungsfrage, Datenerhebung und Datenanalyse vor Erhebung der Daten bei einem einschlägigen Portal (z. B. aspredicted.org; Open Science Framework) hinterlegt wurden. Eine Registrierung nach Erhebung der Daten (wie sie beispielsweise beim Deutschen Register Klinischer Studien möglich ist), wurde nicht als Präregistrierung gewertet (Hardwicke & Wagenmakers, 2023). Für die Kodierung der Poweranalysen wurden nur a priori vorgenommene Analysen gewertet (zur Begründung siehe Lakens, 2014). Die Codes Open Data, Open Code oder Open Material wurden vergeben, wenn die Daten, der Analysecode oder das Untersuchungsmaterial über die veröffentlichte Version des Artikels entweder auf der Homepage der betreffenden Zeitschrift selbst oder bei einem Repositorium zugänglich waren, das eine dauerhafte Verfügbarkeit der betreffenden Daten sicherstellt (z. B. Open Science Framework). Die betreffenden Codes wurden nicht vergeben, wenn die Daten, der Code oder das Material anderweitig verfügbar gemacht wurden, z. B. über private Homepages (Gollwitzer et al., 2021). Auch für Publikationen, in denen diese Informationen laut Autorinnen und Autoren auf Nachfrage („upon request“) angefordert werden können, wurde der entsprechende Code nicht vergeben. Da dies allerdings insbesondere hinsichtlich der Verfügbarkeit von Daten relativ häufig vorkam, erfolgte hierfür eine separate Erfassung.

Nachdem eine Autorin die ersten 30 Artikel kodiert hatte, überprüfte ein zweiter Autor alle bislang vergebenen Codes. Die Autorin kodierte daraufhin alle restlichen Artikel. Abschließend überprüfte der Autor alle vergebenen Codes von zufällig ausgewählten 20 % aller Artikel. Es ergab sich eine hundertprozentige Übereinstimmung der Kodierungen. In den Elektronischen Supplementen (ESM 1) zu diesem Artikel befindet sich eine Datei, in der die von der Analyse ausgeschlossenen sowie die eingeschlossenen Publikationen nachvollzogen werden können. Für die eingeschlossenen Artikel (sportpsychologisch und quantitativ-empirisch) sind zusätzlich die vergebenen Codes für die OSP einsehbar. Interessierte Leserinnen und Leser können somit die im Rahmen des vorliegenden Artikels verwendeten Kodierungen und Analysen nachvollziehen.

Ergebnisse

Insgesamt wurden – nach Ausschluss von Duplikaten, Artikeln, die als „in Vorbereitung“ gelistet waren, sowie Artikeln, die außerhalb der Publikationsliste unter diesem Titel nicht auffindbar waren – N = 655 Publikationen aus den Jahren 2020 und 2021 identifiziert1. Von diesen wurden n = 337 als sportpsychologisch und quantitativ-empirisch kodiert. Diese Zahl stellt daher den Gesamtwert der eingeschlossenen Studien dar, auf den sich die folgenden Prozentangaben beziehen. Eine Übersicht der zentralen Ergebnisse kann Abbildung 1 entnommen werden.

Abbildung 1 Verbreitung verschiedener Open-Science-Praktiken in den eingeschlossenen sportpsychologischen Publikationen (n = 337), sortiert nach Häufigkeit der Umsetzung (absolute Zahlen auf den Balken).

Während knapp die Hälfte der Studien (n = 167, 49,6 %) als Open-Access-Publikationen erschienen sind, wurden nur 19 Studien (5,6 %) vor Beginn der Datenerhebung präregistriert. Dies geschah am häufigsten bei aspredicted.org (n = 8 von 19) sowie beim Deutschen Register Klinischer Studien (n = 6 von 19). Als Registered Report wurde keine einzige Studie eingereicht. Eine A-priori-Poweranalyse wurde für 26,4 % (n = 89) der eingeschlossenen Publikationen durchgeführt. Die eingesetzten Materialien waren für ca. 19 % (n = 63) der Publikationen einsehbar, am häufigsten als Zusatzmaterial auf der Homepage der Zeitschrift (n = 47 von 63). Ähnlich hoch war der Anteil an Publikationen mit öffentlich zugänglichem Datensatz (n = 51, ca. 15 %). Hierbei war das Open Science Framework das am häufigsten gewählte Repositorium (n = 21 von 51). Beim Open-Data-Kriterium war der Anteil an Publikationen, bei denen die Daten laut Autorinnen und Autoren auf Anfrage erhältlich seien, mit 25,5 % vergleichsweise hoch (n = 86). Die Veröffentlichung des Analysecodes spielte in den analysierten Publikationen so gut wie keine Rolle: Nur für n = 8 Studien (2,4 %) wurde dieser veröffentlicht, davon am häufigsten auf dem Open Science Framework (n = 4) oder als Zusatzmaterial auf der Homepage der Zeitschrift (n = 3).

Diskussion

Die vorliegenden Ergebnisse zeigen, dass verschiedene OSP in unterschiedlichem Ausmaß genutzt werden: Während beispielsweise etwa 50 % der analysierten Artikel im Open-Access-Format publiziert wurden, waren die Datensätze bzw. die verwendeten Untersuchungsmaterialien nur in 15 % bzw. 19 % der analysierten Publikationen öffentlich zugänglich. Nur knapp sechs Prozent der Studien wurden präregistriert. Die Werte liegen damit in den meisten Fällen etwas höher als in der Analyse psychologischer Studien (Hardwicke et al., 2022), die jedoch bereits in den Jahren 2014 bis 2017 publiziert wurden. Eine Ausnahme stellt die Veröffentlichung im Open-Access-Modell dar, die in der Psychologie offenbar schon früher eine größere Verbreitung gefunden hat (65 %).

Dass auch in der Sportpsychologie etwa die Hälfte der quantitativ-empirischen Publikationen öffentlich zugänglich sind, scheint zunächst erfreulich. Zu erklären ist der vergleichsweise hohe Anteil an Open-Access-Publikationen vermutlich dadurch, dass diese Publikationsart in vielen Fällen durch entsprechende Rahmenverträge für die individuellen Wissenschaftlerinnen und Wissenschaftler mit keinem erhöhten Aufwand verbunden ist. Gleichzeitig nimmt die Kritik an Open-Access-Modellen zu, bei denen die Autorinnen und Autoren Gebühren für die Publikation ihrer Artikel zahlen. Anlass für diese Kritik ist u. a. die Befürchtung, dass aufgrund der mit diesem Publikationsmodell einhergehenden Anreize für Zeitschriften, möglichst viele Artikel zur Veröffentlichung anzunehmen, die wissenschaftliche Qualität der angenommenen Artikel im Durchschnitt sinken könnte (z. B. Beall, 2012; Salem & Boumil, 2013; Tennant et al., 2016). Angesichts dieser Kritik scheint es wünschenswert, dass sich in Zukunft die Open-Access-Veröffentlichung im sogenannten Diamond-Modell durchsetzen wird, bei dem weder für die Autorinnen und Autoren noch für die Leserinnen und Leser Kosten anfallen. Die Publikationsinfrastruktur wird in diesem Modell von wissenschaftlichen Einrichtungen bzw. Fachgesellschaften zur Verfügung gestellt (z. B. PsychOpen des Leibniz-Instituts für Psychologie).

Der Anteil präregistrierter Studien war in den analysierten Studien überraschend gering, obwohl entsprechende Empfehlungen für die Sportpsychologie bereits vor einigen Jahren veröffentlicht wurden (Geukes et al., 2016; Utesch et al., 2017). Auffällig ist auch, dass keine einzige Publikation als Registered Report vorlag. Dies legt nahe, dass Registered Reports in den untersuchten Zeiträumen kaum eine Rolle für die sportpsychologische Forschung spielten. Ein Grund könnte darin liegen, dass dieses Modell von den entsprechenden Zeitschriften auch angeboten werden muss. Das Center for Open Science (n. d.) führt eine Liste solcher Zeitschriften, in der aktuell mit Psychology of Sport and Exercise nur eine einzige explizit sportpsychologisch ausgerichtete Zeitschrift geführt wird.

Bei der Zugänglichkeit der Daten war auffällig, dass in 25,5 % der analysierten Studien die Autorinnen und Autoren diese „auf Anforderung“ zusenden wollten. Eine empirische Analyse dieser Praktik zeigt eindrücklich, dass dieses Vorgehen verhältnismäßig häufig dazu führt, dass der Datensatz unzugänglich bleibt (Tedersoo et al., 2021). Im Gegensatz zu den anderen OSP könnte der geringe Anteil an Studien mit offen zugänglichen Daten zumindest teilweise dadurch zu erklären sein, dass der Veröffentlichung von Daten rechtliche oder ethische Bedenken entgegenstanden (siehe zu diesem Thema die aktuellen Empfehlungen der Kommission Open Science der DGPs zum Management und zur Bereitstellung von Forschungsdaten; Gollwitzer et al., 2021). Darüber hinaus könnte der mit öffentlich zugänglichen Datensätzen, Materialien und Analysecodes verbundene Aufwand als sehr hoch wahrgenommen werden und somit abschreckend wirken (z. B. Chawinga & Zinn, 2019; Houtkoop et al., 2018).

Die unterschiedlichen Nutzungshäufigkeiten der in dieser Studie untersuchten OSP lassen sich dahingehend interpretieren, dass Wissenschaftlerinnen und Wissenschaftler kein homogenes Konstrukt Open Science wahrnehmen, sondern zwischen verschiedenen OSP unterscheiden. Eine Ursache für die unterschiedlichen Nutzungshäufigkeiten verschiedener OSP könnte die bereits erwähnte Tatsache sein, dass Wissenschaftlerinnen und Wissenschaftler diese als unterschiedlich aufwändig wahrnehmen (Gownaris et al., 2022).

Die vorliegenden Ergebnisse deuten zudem an, dass es substanzielle Barrieren in der Umsetzung von OSP gibt. Für zukünftige Studien scheint es interessant, zu untersuchen, welche Barrieren Wissenschaftlerinnen und Wissenschaftler in der deutschsprachigen Sportpsychologie wahrnehmen. Als mögliche Barrieren wären in diesem Zusammenhang z. B. eine mangelnde Überzeugung von der Sinnhaftigkeit von OSP, die Wahrnehmung ungünstiger Kosten-Nutzen-Verhältnisse, rechtliche Unsicherheiten (z. B. in Bezug auf Datenschutz) sowie Unsicherheiten über das beste Vorgehen bei der Verwendung von OSP zu nennen (z. B. Abele-Brehm et al., 2019; Gownaris et al., 2022). Hierbei scheint es wesentlich, Bedenken von Forscherinnen und Forschern ernst zu nehmen und sich mit diesen Bedenken in der weiteren Diskussion inhaltlich und wertschätzend auseinanderzusetzen. Zeichnet sich in weiteren Studien Unkenntnis über die Umsetzung einzelner OSP als wesentliche Barriere ab, wäre es aus Sicht der Autorinnen und Autoren sinnvoll, dieser Barriere mit Schulungsangeboten zu begegnen. Gibt es jedoch grundsätzliche Bedenken gegenüber bestimmten OSP, dann scheinen Schulungsangebote alleine wenig zielführend, und die betreffenden Bedenken sollten in einem ersten Schritt in der wissenschaftlichen Community offen diskutiert werden. Will man die Nutzung von OSP erhöhen, so scheint es am sinnvollsten, Wissenschaftlerinnen und Wissenschaftler von deren Sinnhaftigkeit inhaltlich zu überzeugen, statt zu versuchen, sie durch formale Anforderungen zu deren Nutzung zu motivieren. So argumentieren Bakker et al. (2020), dass die verpflichtende Durchführung von Poweranalysen zwar deren Häufigkeit erhöhe, aber eben nicht zur Vergrößerung von Stichproben beitrage.

In der Summe legen die aktuellen Daten somit nahe, dass die bisher eher spärliche Umsetzung von OSP in der deutschsprachigen Sportpsychologie multifaktoriell bedingt ist, wodurch Maßnahmen zur Intensivierung dieser Nutzung, die nur einen potenziellen Wirkfaktor adressieren, wenig zielführend erscheinen. Einen ähnlichen Schluss ziehen Hardwicke et al. (2022) für die internationale Psychologie: „There is unlikely to be a single remedy to this situation“ (p. 248). Darüber hinaus weisen die unterschiedlichen Nutzungshäufigkeiten darauf hin, dass es möglicherweise sinnvoll sein könnte, in zukünftigen Diskussionen den Überbegriff Open Science zu vermeiden und stärker als bislang zwischen verschiedenen OSP zu differenzieren.

Limitationen

Die vorliegende Studie geht über die Erfragung von Einstellungen oder Absichten hinaus und erfasst Verhaltensdaten, die als Basis für zukünftige Maßnahmen, als Input für zukünftige Diskussionen oder als Vergleichsstandard für zukünftige Studien genutzt werden können. Einzelne Fehler bei der Kodierung der vorliegenden Studien können nicht ausgeschlossen werden, jedoch dürften die vorliegenden Kodierungen der verwendeten OSP mit einem vergleichsweise geringen Fehler behaftet sein.

Bei der Interpretation der vorliegenden Daten ist zu berücksichtigen, dass die Ergebnisse von den Such- und Auswahlstrategien bei der Erstellung des zugrunde liegenden Datensatzes abhängig sind. Dies betrifft zunächst die Auswahl der insgesamt recherchierten Artikel. Ziel des vorliegenden Artikels war es, die Verwendung von OSP innerhalb der deutschsprachigen sportpsychologischen Gemeinschaft zu dokumentieren. Dazu wurden die Publikationslisten der Arbeitsbereiche zugrunde gelegt, die von Mitgliedern der asp geleitet wurden. Diese Analyse ist insofern kritisch zu betrachten, dass die Publikationslisten unterschiedlich gepflegt wurden und auch die Zugehörigkeit der Mitarbeitenden zu den sportpsychologischen Arbeitsbereichen nicht immer eindeutig erkennbar war. Zudem existieren Arbeitsbereiche, die neben der Sportpsychologie auch weitere sportwissenschaftliche Disziplinen umfassen (z. B. aus dem Bereich der Gesundheitsforschung). Zudem wurden keine sportpsychologischen Publikationen eingeschlossen, die von Wissenschaftlerinnen und Wissenschaftlern außerhalb sportpsychologischer Arbeitsgruppen verfasst wurden. Alternativ hätte man der Analyse Artikel deutschsprachiger Autorinnen und Autoren zugrunde legen können, die in explizit sportpsychologischen Zeitschriften erschienen sind. Auch eine Suche nach bestimmten Schlagworten in Datenbanken hätte vermutlich eine leicht andere Datengrundlage geliefert.

Weitere Einschränkungen beziehen sich auf die in die Analyse eingeschlossenen Studien. Aufgrund der unterschiedlichen Ansätze, den Gegenstand der Sportpsychologie inhaltlich oder theoretisch zu bestimmen (Brand & Schweizer, 2019; Schüler et al., 2019), wurde für den vorliegenden Artikel das oben beschriebene eher inklusive Vorgehen gewählt. Dadurch sind vermutlich Artikel zu Fragestellungen enthalten, die manche Mitglieder der sportpsychologischen Gemeinschaft nicht als sportpsychologisch betrachten würden. Umgekehrt ist es aber auch möglich, dass einzelne Artikel als nicht-sportpsychologisch kodiert wurden, die andere Mitglieder wiederum als sportpsychologisch einordnen würden. In Abhängigkeit des individuellen Verständnisses von Sportpsychologie repräsentieren die in die Analyse eingeschlossenen Artikel die Gesamtheit sportpsychologischer Forschung somit unterschiedlich gut.

Ebenso wurden ausschließlich quantitativ-empirische Primärstudien in die Analyse eingeschlossen, da die aktuelle Diskussion sich bisher besonders auf solche Studien bezieht. Zumindest manche OSP sind aber auch auf andere Studiendesigns anwendbar, z. B. auf Metaanalysen (Quintana, 2015) oder qualitative Studien (Class et al., 2021). Für zukünftige Analysen könnte es aufschlussreich sein, auch solche OSP zu betrachten. Ausgeschlossen wurden auch Publikationen, die als Preprint veröffentlicht wurden. Dies lag primär daran, dass unklar war, in wie vielen Publikationslisten Preprint-Veröffentlichungen überhaupt aufgeführt wurden. Prinzipiell können Preprints im Sinne der Open-Science-Bewegung nämlich durchaus als positiv bewertet werden, da sie u. a. eine offene Begutachtung durch Mitglieder der Scientific Community erlauben (sog. Open Peer Review; Ross-Hellauer, 2017). Allerdings betrafen in den Publikationslisten aufgeführte Preprints insgesamt nur drei Artikel, sodass die Auswirkungen auf die Gesamtergebnisse gering erscheinen.

In Bezug auf die Operationalisierung von Open Access wurde nur bei solchen Artikeln das Kriterium als „erfüllt“ kodiert, die in einem von der Zeitschrift angebotenen Open-Access-Modell publiziert wurden. Der Code Open Access wurde nicht vergeben für Artikel, die im Anschluss an eine „herkömmliche“ Publikation von den Autorinnen oder Autoren über private Homepages, ResearchGate oder ähnliche Dienste der Öffentlichkeit zugänglich gemacht wurden. Von den eingeschlossenen Publikationen sind also vermutlich mehr öffentlich zugänglich als nur die im Open-Access-Modell publizierten.

Ähnlich verhält es sich mit der Veröffentlichung von Materialien, Daten oder Analysecodes über private oder persönliche universitäre Homepages. Im Einklang mit den Empfehlungen der DGPs-Kommission Open Science wurden derartige Veröffentlichungen nicht berücksichtigt (Gollwitzer et al., 2021). Dort werden „Anforderungen an ein geeignetes Repositorium“ zur Veröffentlichung von Forschungsdaten definiert (Gollwitzer et al., 2021, S. 138). In diesen Anforderungen wird „von einer Bereitstellung auf privaten oder persönlichen universitären Webseiten … dringend abgeraten“ und „ein vertrauenswürdiges öffentliches Repositorium (z. B. PsychArchives des ZPID, datorium bei GESIS oder ein gut ausgebautes universitäres Repositorium)“ empfohlen (Gollwitzer et al., 2021, S. 138). Die DGPs-Kommission Open Science rät auch von einer Veröffentlichung von Forschungsdaten in Zeitschriftenrepositorien ab. Dennoch wurden Datensätze, die als Zusatzmaterial auf der Homepage der entsprechenden Zeitschrift veröffentlicht wurden, im Rahmen des vorliegenden Artikels als Open Data kodiert, da angenommen wurde, dass dies in den analysierten Jahrgängen die dominierende Art der Veröffentlichung von Forschungsdaten dargestellt haben dürfte.

Bei der Interpretation der vorliegenden Ergebnisse muss weiterhin berücksichtigt werden, dass Artikel, die in den Jahren 2020 und 2021 erschienen sind, vermutlich meist einige Jahre vorher geplant und durchgeführt wurden. Berücksichtigt man die Zeit für das Verfassen des betreffenden Artikels, möglicherweise mehrere Einreichungen, Überarbeitungen und schließlich Veröffentlichungsverzögerungen (publication lag), so beruhen Artikel aus dem Jahr 2020 vermutlich im Mittel auf Studien aus dem Jahr 2018. Das Durchführungsjahr der berichteten Studien war nur in wenigen Artikeln nachvollziehbar, aber dort, wo es nachvollziehbar war, waren manche Studien sogar noch älter. Die berichteten Ergebnisse sind somit nur bedingt aussagekräftig für die Verwendung von OSP im Jahr 2023. Dennoch können sie als Benchmark für weitere Analysen in den folgenden Jahren dienen. Diese Studien könnten dann die Entwicklung der Verwendung von OSP im zeitlichen Verlauf abbilden.

Bei der Bestimmung der relativen Häufigkeit der Verwendung einzelner OSP wurden die ermittelten Häufigkeiten stets auf die Gesamtzahl aller eingeschlossenen Artikel prozentuiert. Dabei ist zu berücksichtigen, dass die Fragestellungen einzelner Artikel sich für die Verwendung bestimmter OSP nicht eignen (z. B. Präregistrierung bei einer explorativen Analyse). Bei einer Ermittlung der Häufigkeiten einzelner OSP nur für solche Artikel, bei deren Fragestellung sie geeignet erscheinen, würden die relativen Häufigkeiten entsprechend steigen. Der betreffende Anstieg dürfte jedoch insgesamt gering ausfallen, da in der Mehrheit der eingeschlossenen Studien die konfirmatorische Methode der Null-Hypothesen-Signifikanz-Testung verwendet wurde, wofür sich prinzipiell alle untersuchten OSP eignen.

Abschließende Bemerkungen

Die zukünftige Diskussion um OSP könnte davon profitieren, deutlicher als bislang die Sinnhaftigkeit dieser Praktiken über ihren Beitrag zu Transparenz und Reproduzierbarkeit zu begründen und eine stärkere Trennung zu eher inhaltlichen Kriterien guter Forschung (Fiedler, 2017, 2018) vorzunehmen. Eine Studie kann aus wissenschaftstheoretischer und methodischer Perspektive von hoher Qualität sein, auch wenn sie keine einzige OSP aufweist. Im Gegenzug kann eine Studie zahlreiche der hier untersuchten OSP enthalten, aus wissenschaftstheoretischer und methodischer Perspektive jedoch Mängel aufweisen. OSP beeinflussen nicht zwangsläufig die inhaltliche Qualität einer Studie, sondern deren Transparenz und Reproduzierbarkeit (Hardwicke & Wagenmakers, 2023). Dadurch ermöglichen sie es Leserinnen und Lesern, ihr Vertrauen in die Qualität der Studienergebnisse zu kalibrieren (Hardwicke & Wagenmakers, 2023): OSP schaffen nicht Qualität, sondern Vertrauen. Aktuelle Untersuchungen deuten darauf hin, dass Publikationen, die konkrete Hinweise auf Open Science enthalten, als glaubwürdiger eingestuft werden (Song et al., 2022). Aus dieser Perspektive scheint es vielversprechend zu sein, in Zukunft weniger über Open Science und mehr über Maßnahmen zur Schaffung von Transparenz und Reproduzierbarkeit zu sprechen (Transparency and Reproducibility-Related Research Practices; Hardwicke et al., 2022). Diese eher operationale Begrifflichkeit hätte zudem den Vorteil, zu verdeutlichen, dass es unterschiedliche OSP gibt, wodurch sowohl eine differenziertere Wahrnehmung von OSP als auch eine differenziertere Auseinandersetzung mit ihnen gefördert werden könnte, die über eine pauschale Anerkennung oder eben auch Ablehnung von OSP hinausgeht.

Elektronische Supplemente (ESM)

Die elektronischen Supplemente sind mit der Online-Version dieses Artikels verfügbar unter https://doi.org/10.1026/1612-5010/a000404

Literatur

  • Abele-Brehm, A., Gollwitzer, M., Steinberg, U. & Schönbrodt, F. (2019). Attitudes towards open science and public data sharing: A survey among members of the German Psychological Society. Social Psychology, 50, 252 – 260. https://doi.org/10.1027/1864-9335/a000384 First citation in articleLinkGoogle Scholar

  • Allum, N., Reid, A., Bidoglia, M., Gaskell, G., Aubert-Bonn, N., Buljan, I. et al. (2023). Researchers on research integrity: A survey of European and American researchers. F1000Research, 12, Article 187 https://doi.org/10.12688/f1000research.128733.1 First citation in articleCrossrefGoogle Scholar

  • Bakker, M., Veldkamp, C. L. S., van den Akker, O. R., van Assen, M. A. L. M., Crompvoets, E. & Ong, H. H. et. al. (2020). Recommendations in preregistrations and internal review board proposals promote formal power analyses but do not increase sample size. PLoS ONE, 15 (7), Article e0236079 https://doi.org/10.1371/journal.pone.0236079 First citation in articleCrossrefGoogle Scholar

  • Banks, G. C., Rogelberg, S. G., Woznyj, H. M., Landis, R. S. & Rupp, D. E. (2016). Evidence on questionable research practices: The good, the bad, and the ugly. Journal of Business and Psychology, 31, 323 – 338. https://doi.org/10.1007/s10869-016-9456-7 First citation in articleCrossrefGoogle Scholar

  • Beall, J. (2012). Predatory publishers are corrupting open access. Nature, 489, Article 179 https://doi.org/10.1038/489179a First citation in articleCrossrefGoogle Scholar

  • Bosnjak, M., Fiebach, C. J., Mellor, D., Mueller, S., O‘Connor, D. B., Oswald, F. L. et al. (2022). A template for preregistration of quantitative research in psychology: Report of the joint psychological societies preregistration task force. American Psychologist, 77, 602 – 615. https://doi.org/10.1037/amp0000879 First citation in articleCrossrefGoogle Scholar

  • Brand, R. & Schweizer, G. (2019). Sportpsychologie. Berlin: Springer. First citation in articleCrossrefGoogle Scholar

  • Caldwell, A. R., Vigotsky, A. D., Tenan, M. S., Radel, R., Mellor, D. T., Kreutzer, A. et al. (2020). Moving sport and exercise science forward: A call for the adoption of more transparent research practices. Sports Medicine, 50, 449 – 459. https://doi.org/10.1007/s40279-019-01227-1 First citation in articleCrossrefGoogle Scholar

  • Center for Open Science (n. d.). Registered Reports: Peer review before results are known to align scientific values and practices. Verfügbar unter https://www.cos.io/initiatives/registered-reports First citation in articleGoogle Scholar

  • Chawinga, W. D. & Zinn, S. (2019). Global perspectives of research data sharing: A systematic literature review. Library & Information Science Research, 41, 109 – 122. https://doi.org/10.1016/j.lisr.2019.04.004 First citation in articleCrossrefGoogle Scholar

  • Christensen, G., Wang, Z., Paluck, E. L., Swanson, N., Birke, D., Miguel, E. et al. (2020). Open science practices are on the rise: The State of Social Science (3S) Survey. MetaArXiv. https://doi.org/10.31222/osf.io/5rksu First citation in articleCrossrefGoogle Scholar

  • Class, B., de Bruyne, M., Wuillemin, C., Donzé, D. & Claivaz, J.-B. (2021). Towards open science for the qualitative researcher: From a positivist to an open interpretation. International Journal of Qualitative Methods, 20. https://doi.org/10.1177/16094069211034641 First citation in articleCrossrefGoogle Scholar

  • Deutsche Forschungsgemeinschaft (n. d.). Was ist Open Access? Verfügbar unter https://www.dfg.de/foerderung/programme/infrastruktur/lis/open_access/was_ist_open_access/index.html First citation in articleGoogle Scholar

  • Dreiskämper, D. (2016). Die „Vertrauenskrise“ der empirischen Sozialwissenschaften und deren Bedeutung für die Sportpsychologie: Ein Kommentar aus der Perspektive der Vertrauensforschung. Zeitschrift für Sportpsychologie, 23, 92 – 98. https://doi.org/10.1026/1612-5010/a000168 First citation in articleLinkGoogle Scholar

  • Fanelli, D. (2009). How many scientists fabricate and falsify research? A systematic review and meta-analysis of survey data. PLoS One, 4, Article e5738 https://doi.org/10.1371/journal.pone.0005738 First citation in articleCrossrefGoogle Scholar

  • Fanelli, D. (2012). Negative results are disappearing from most disciplines and countries. Scientometrics, 90, 891 – 904. https://doi.org/10.1007/s11192-011-0494-7 First citation in articleCrossrefGoogle Scholar

  • Ferguson, C. J. & Heene, M. (2012). A vast graveyard of undead theories: Publication bias and psychological science’s aversion to the null. Perspectives on Psychological Science, 7, 555 – 561. https://doi.org/10.1177/1745691612459059 First citation in articleCrossrefGoogle Scholar

  • Fiedler, K. (2017). What constitutes strong psychological science? The (neglected) role of diagnosticity and a priori theorizing. Perspectives on Psychological Science, 12, 46 – 61. https://doi.org/10.1177/1745691616654458 First citation in articleCrossrefGoogle Scholar

  • Fiedler, K. (2018). The creative cycle and the growth of psychological science. Perspectives on Psychological Science, 13, 433 – 438. https://doi.org/10.1177/1745691617745651 First citation in articleCrossrefGoogle Scholar

  • Fiedler, K. & Schwarz, N. (2016). Questionable research practices revisited. Social Psychological and Personality Science, 7, 45 – 52. https://doi.org/10.1177/1948550615612150 First citation in articleCrossrefGoogle Scholar

  • Franco, A., Malhotra, N. & Simonovits, G. (2014). Publication bias in the social sciences: Unlocking the file drawer. Science, 5, 6203, 1502 – 1505. https://doi.org/10.1126/science.1255484 First citation in articleCrossrefGoogle Scholar

  • Gärtner, A., Leising, D. & Schönbrodt, F. (2022). Responsible research assessment: Implementing DORA for hiring and promotion in psychology. https://doi.org/10.17605/OSF.IO/4WYNR First citation in articleGoogle Scholar

  • Geukes, K., Schönbrodt, F. D., Utesch, T., Geukes, S. & Back, M. D. (2016). Wege aus der Vertrauenskrise. Zeitschrift für Sportpsychologie, 23, 99 – 109. https://doi.org/10.1026/1612-5010/a000167 First citation in articleLinkGoogle Scholar

  • Gollwitzer, M., Abele-Brehm, A., Fiebach, C. J., Ramthun, R., Scheel, A., Schönbrodt, F. et al. (2021). Management und Bereitstellung von Forschungsdaten in der Psychologie. Psychologische Rundschau, 72, 132 – 146. https://doi.org/10.1026/0033-3042/a000514 First citation in articleLinkGoogle Scholar

  • Gopalakrishna, G., ter Riet, G., Vink, G., Stoop, I., Wicherts, J. M. & Bouter, L. M. (2022). Prevalence of questionable research practices, research misconduct and their potential explanatory factors: A survey among academic researchers in the Netherlands. PLoS One, 7, 2, Article e0263023 https://doi.org/10.1371/journal.pone.0263023 First citation in articleCrossrefGoogle Scholar

  • Gownaris, N. J., Vermeir, K., Bittner, M.-I., Gunawardena, L., Kaur-Ghumaan, S., Lepenies, R. et al. (2022). Barriers to full participation in the open science life cycle among early career researchers. Data Science Journal, 21 Article 2 https://doi.org/10.5334/dsj-2022-002 First citation in articleCrossrefGoogle Scholar

  • Halperin, I., Vigotsky, A. D., Foster, C. & Pyne, D. B. (2018). Strengthening the practice of exercise and sport-science research. International Journal of Sports Physiology and Performance, 13, 127 – 134. https://doi.org/10.1123/ijspp.2017-0322 First citation in articleCrossrefGoogle Scholar

  • Hardwicke, T. E., Thibault, R. T., Kosie, J. E., Wallach, J. D., Kidwell, M. C. & Ioannidis, J. P. (2022). Estimating the prevalence of transparency and reproducibility-related research practices in psychology (2014 – 2017). Perspectives on Psychological Science, 17, 239 – 251. https://doi.org/10.1177/1745691620979806 First citation in articleCrossrefGoogle Scholar

  • Hardwicke, T. & Wagenmakers, E.-J. (2023). Reducing bias, increasing transparency and calibrating confidence with preregistration. Nature Human Behavior, 7, 15 – 26. https://doi.org/10.1038/s41562-022-01497-2 First citation in articleCrossrefGoogle Scholar

  • Houtkoop, B. L., Chambers, C., Macleod, M., Bishop, D. V. M., Nichols, T. E. & Wagenmakers, E. J. (2018). Data sharing in psychology: A survey on barriers and preconditions. Advances in Methods and Practices in Psychological Science, 1, 70 – 85. https://doi.org/10.1177/25152445917751886 First citation in articleCrossrefGoogle Scholar

  • John, L. K., Loewenstein, G. & Prelec, D. (2012). Measuring the prevalence of questionable research practices with incentives for truth telling. Psychological Science, 23, 524 – 532. https://doi.org/10.1177/0956797611430953 First citation in articleCrossrefGoogle Scholar

  • Kerr, N. L. (1998). HARKing: Hypothesizing after the results are known. Personality and Social Psychology Review, 2, 196 – 217. https://doi.org/10.1207/s15327957pspr0203_4 First citation in articleCrossrefGoogle Scholar

  • Lakens, D. (2014). Observed power, and what to do if your editor asks for post-hoc power analyses. The 20 % Statistician. Verfügbar unter: https://daniellakens.blogspot.com/2014/12/observed-power-and-what-to-do-if-your.html First citation in articleGoogle Scholar

  • Lakens, D. & Evers, E. R. (2014). Sailing from the seas of chaos into the corridor of stability: Practical recommendations to increase the informational value of studies. Perspectives on Psychological Science, 9, 278 – 292. https://doi.org/10.1177/1745691614528520 First citation in articleCrossrefGoogle Scholar

  • Maxwell, S. E., Lau, M. Y. & Howard, G. S. (2015). Is psychology suffering from a replication crisis? What does “failure to replicate” really mean? American Psychologist, 70, 487 – 498. https://doi.org/10.1037/a0039400 First citation in articleCrossrefGoogle Scholar

  • Munafò, M. R., Nosek, B. A., Bishop, D. V., Button, K. S., Chambers, C. D., Percie du Sert, N. et al. (2017). A manifesto for reproducible science. Nature Human Behaviour, 1, 1 – 9. https://doi.org/10.1038/s41562-016-0021 First citation in articleCrossrefGoogle Scholar

  • Nelson, L. D., Simmons, J. & Simonsohn, U. (2018). Psychology’s renaissance. Annual Review of Psychology, 69, 511 – 534. https://doi.org/10.1146/annurev-psych-122216-011836 First citation in articleCrossrefGoogle Scholar

  • Nosek, B. A., Hardwicke, T. E., Moshontz, H., Allard, A., Corker, K. S., Dreber, A. et al. (2022). Replicability, robustness, and reproducibility in psychological science. Annual Review of Psychology, 73, 719 – 748. https://doi.org/10.1146/annurev-psych-020821-114157 First citation in articleCrossrefGoogle Scholar

  • Nosek, B. A., Spies, J. R. & Motyl, M. (2012). Scientific utopia: II. Restructuring incentives and practices to promote truth over publishability. Perspectives on Psychological Science, 7, 615 – 631. https://doi.org/10.1177/1745691612459058 First citation in articleCrossrefGoogle Scholar

  • Open Science Collaboration (2015). Estimating the reproducibility of psychological science. Science, 349, 1 – 8. https://doi.org/10.1126/science.aac4716 First citation in articleCrossrefGoogle Scholar

  • Pashler, H. & Wagenmakers, E.-J. (Eds.). (2012). Special section on replicability in psychological science: A crisis of confidence? [Special section]. Perspectives on Psychological Science, 7, 528 – 654. https://doi.org/10.1177/1745691612465253 First citation in articleCrossrefGoogle Scholar

  • Quintana, D. S. (2015). From pre-registration to publication: A non-technical primer for conducting a meta-analysis to synthesize correlational data. Frontiers in Psychology, 6, Article 1549 https://doi.org/10.3389/fpsyg.2015.01549 First citation in articleCrossrefGoogle Scholar

  • Raab, M. (2017). Sport and exercise psychology in 2050. German Journal of Exercise and Sport Research, 47, 62 – 71. https://doi.org/10.1007/s12662-016-0435-y First citation in articleCrossrefGoogle Scholar

  • Rosenthal, R. (1979). The file drawer problem and tolerance for null results. Psychological Bulletin, 86, 638 – 641. https://doi.org/10.1037/0033-2909.86.3.638 First citation in articleCrossrefGoogle Scholar

  • Ross-Hellauer, T. (2017). What is open peer review? A systematic review. F1000Research, 6, Article 588 https://doi.org/10.12688/f1000research.11369.2 First citation in articleCrossrefGoogle Scholar

  • Salem, D. N. & Boumil, M. M. (2013). Conflict of interest in open-access publishing. The New England Journal of Medicine, 360, Article 491 https://doi.org/10.1056/NEJMc1307577 First citation in articleCrossrefGoogle Scholar

  • Schönbrodt, F. D., Gärtner, A., Frank, M., Gollwitzer, M., Ihle, M., Mischkowski, D. et al. (2022). Responsible research assessment I: Implementing DORA for hiring and promotion in psychology. PsyArXiv. https://doi.org/10.31234/osf.io/rgh5b First citation in articleCrossrefGoogle Scholar

  • Schüler, J., Wegner, M. & Plessner, H. (2019). Einführung in die Sportpsychologie. In J. SchülerM. WegnerH. Plessner (Hrsg.), Lehrbuch Sportpsychologie – Theoretische Grundlagen und Anwendung (S. 1 – 14). Berlin: Springer. First citation in articleGoogle Scholar

  • Schweizer, G. & Furley, P. (2016a). Die Vertrauenskrise empirischer Forschung in der Psychologie: Ausgewählte Ursachen und exemplarische Lösungsvorschläge für die sportpsychologische Forschung. Zeitschrift für Sportpsychologie, 23, 77 – 83. https://doi.org/10.1026/1612-5010/a000171 First citation in articleLinkGoogle Scholar

  • Schweizer, G. & Furley, P. (2016b). Reproducible research in sport and exercise psychology: The role of sample sizes. Psychology of Sport and Exercise, 23, 114 – 122. https://doi.org/10.1016/j.psychsport.2015.11.005 First citation in articleCrossrefGoogle Scholar

  • Simonsohn, U., Nelson, L. D. & Simmons, J. P. (2014). p-curve and effect size: Correcting for publication bias using only significant results. Perspectives on Psychological Science, 9, 666 – 681. https://doi.org/10.1177/1745691614553988 First citation in articleCrossrefGoogle Scholar

  • Song, H., Markowitz, D. M. & Taylor, S. H. (2022). Trusting on the shoulders of open giants? Open science increases trust in science for the public and academics. Journal of Communication, 72, 497 – 510. https://doi.org/10.1093/joc/jqac017 First citation in articleCrossrefGoogle Scholar

  • Soto, C. J. (2019). How replicable are links between personality traits and consequential life outcomes? The Life Outcomes of Personality Replication Project. Psychological Science, 30, 711 – 727. https://doi.org/10.1177/0956797619831612 First citation in articleCrossrefGoogle Scholar

  • Stürmer, S., Oeberst, A., Trötschel, R. & Decker, O. (2017). Early-career researchers’ perceptions of the prevalence of questionable research practices, potential causes, and open science. Social Psychology, 48, 365 – 371. https://doi.org/10.1027/1864-9335/a000324 First citation in articleLinkGoogle Scholar

  • Tamminen, K. A. & Poucher, Z. A. (2018). Open science in sport and exercise psychology: Review of current approaches and considerations for qualitative inquiry. Psychology of Sport and Exercise, 36, 17 – 28. https://doi.org/10.1016/j.psychsport.2017.12.010 First citation in articleCrossrefGoogle Scholar

  • Tedersoo, L., Küngas, R., Oras, E., Köster, K., Eeenmaa, H., Leijen, Ä. et al. (2021). Data sharing practices and data availability upon request differ across scientific disciplines. Scientific Data, 8, Article 192 https://doi.org/10.1038/s41597-021-00981-0 First citation in articleCrossrefGoogle Scholar

  • Tennant, J. P., Waldner, F., Jacques, D. C., Masuzzo, P., Collister, L. B. & Hartgerink, C. H. J. (2016). The academic, economic and societal impacts of Open Access: An evidence-based review. F1000Research, 5, Article 632 https://doi.org/10.12688/f1000research.8460.3 First citation in articleCrossrefGoogle Scholar

  • Utesch, T., Dreiskämper, D. & Geukes, K. (2017). Open Science in der Sportwissenschaft? Ein Wegweiser zur Präregistrierung von Forschungsvorhaben und zu offenem Material, offenen Daten und offenem Code. Zeitschrift für Sportpsychologie, 24, 92 – 99. https://doi.org/10.1026/1612-5010/a000205 First citation in articleLinkGoogle Scholar

  • Wolff, W., Baumann, L. & Englert, C. (2018). Self-reports from behind the scenes: Questionable research practices and rates of replication in ego depletion research. PLoS One, 3, 6, Article e0199554 https://doi.org/10.1371/journal.pone.0199554 First citation in articleCrossrefGoogle Scholar

1Zusätzlich zu diesen 655 Publikationen enthielten die in Schritt 2 untersuchten Publikationslisten zahlreiche Artikel, die offensichtlich nicht der Sportpsychologie zuzuordnen waren und daher nicht in die weitere Analyse aufgenommen wurden.