Skip to main content
Open Access

Entwicklung und Überprüfung eines Fragebogens zur Erfassung studentischer Bedarfe an medienbezogenen Lehrkompetenzen im Lehramtsstudium

Published Online:https://doi.org/10.1024/1010-0652/a000358

Abstract

Zusammenfassung. Um Schülerinnen und Schüler beim Erwerb erforderlicher Kompetenzen für den Umgang mit neuen, digitalen Technologien bzw. Medien adäquat zu unterstützen und diese lernförderlich im Unterricht einzusetzen, benötigen Lehrkräfte nicht nur eigene Medienkompetenzen, sondern insbesondere medienbezogene Lehrkompetenzen. Eine zielgruppen- und kompetenzorientierte Gestaltung hochschulischer Maßnahmen zur Förderung dieser Kompetenzen im Lehramtsstudium setzt jedoch die konkrete Identifizierung von Bedarfen aus studentischer Perspektive voraus. Bislang fehlt es an einem geeigneten Instrument, um die aus wahrgenommenen Kompetenzdefiziten hervorgehenden, individuellen Bedarfe umfassend und reliabel zu erfassen. Ausgehend von einem heuristischen Rahmenmodell medienbezogener Kernkompetenzen von Lehrkräften (Forschungsgruppe Lehrerbildung Digitaler Campus Bayern [FLDCB], 2017) beschreibt der vorliegende Beitrag die Entwicklung und psychometrische Überprüfung eines Fragebogens zur Erfassung selbsteingeschätzter Bedarfe an medienbezogenen Lehrkompetenzen im Lehramtsstudium. Im Rahmen konfirmatorischer Faktorenanalysen wurde die Dimensionalität des Instruments mittels des „detection of misspecification“-Ansatzes (Saris, Satorra & van der Veld, 2009) untersucht und dessen Reliabilität einer erweiterten Prüfung unterzogen. Basierend auf einer Vorstudie (N = 254) wurden zunächst einige Items überarbeitet. Die Überprüfung des revidierten Instruments in der Hauptstudie (N = 232) ergab ein fünffaktorielles Modell und zeigte, dass sich die individuellen Bedarfe bezüglich medienbezogener Lehrkompetenzen mit Hilfe der entsprechenden Dimensionen (Planung, Entwicklung, Realisierung, Evaluation, Sharing) differenzieren lassen. Zudem konnte durch ein Bifaktor-(S-1)-Modell gezeigt werden, dass ein übergeordneter Generalfaktor nicht ausreichend zur Varianzaufklärung beiträgt und statt eines Gesamttestwerts die einzelnen, reliablen Subskalenwerte verwendet werden sollten. Erste Hinweise auf konvergente Validität sprechen zudem für eine valide Interpretierbarkeit der Testwerte. Trotz weiteren Forschungsbedarfs bietet das vorgestellte Instrument eine Möglichkeit, selbsteingeschätzte Bedarfe an medienbezogenen Lehrkompetenzen im Lehramtsstudium reliabel und ökonomisch zu erfassen, wodurch sich verschiedenste Anwendungsszenarien im Hochschul- und Forschungskontext eröffnen.

Development and evaluation of a questionnaire to measure student teachers' needs for digital teaching competencies in teacher education

Abstract. In order to adequately support young learners in gaining digital learning competencies and to use digital media for teaching effectively, teachers need to hold not only digital competencies themselves, but also profound digital teaching competencies. In teacher education, tailoring university actions for fostering such competencies to different target groups, however, requires identifying student teachers' individual needs. So far, there is a lack of a suitable instrument to comprehensively and reliably record the individual needs arising from perceived competence deficits. Based on a heuristic framework model of technology-related core competencies of teachers (Forschungsgruppe Lehrerbildung Digitaler Campus Bayern, 2017), this contribution describes the competence-oriented development and psychometric evaluation of a questionnaire to measure student teachers' self-assessed needs for acquiring and/or improving digital teaching competencies. Within confirmatory factor analyses we applied the “detection of misspecification”-approach (Saris, Satorra & van der Veld, 2009) to investigate the instruments' structure. Following some necessary item revisions based on a pre-study (N = 254), evaluating the revised instrument in the main study (N = 232) showed the model to comprise five dimensions for conceptualizing the need for digital teaching competencies (Planning, Development, Implementation, Evaluation, Sharing). Additionally, a bifactor-(S-1) model revealed that a general factor could not explain a substantial amount of variance, thus supporting the use of reliable subscale scores instead of a sum score. Also, first indications of convergent validity speak for a valid interpretability of the test scores. Despite the need for further research, this new instrument allows to measure student teachers' needs for digital teaching competencies in a reliable and economic way establishing its use in university as well as research contexts.

In einer zunehmend von Digitalisierung geprägten Welt stellt der Erwerb erforderlicher Kompetenzen für den Umgang mit neuen, digitalen Technologien und Medien eine zentrale Herausforderung schulischen Lernens dar. Dabei gehen mit grundlegenden Veränderungen in diversen Informations- und Wissensbereichen ebenso Chancen wie Risiken für das Bildungswesen einher (Petko, Döbeli Honegger & Prasse, 2018). So werfen allein die Menge bzw. Komplexität von Informationen, deren unterschiedliche Verfügbarkeit sowie Aspekte ihrer Qualität die Frage auf, inwieweit Schülerinnen und Schüler in der Lage sind, aktiv am digitalen Wandel zu partizipieren, diesen selbstbestimmt mitzugestalten und kritisch zu reflektieren (Cress et al., 2018). Gleichzeitig wird dem Einsatz digitaler Medien im Unterricht ein großes Potenzial zur Unterstützung des überfachlichen und fachlichen Lernens zugeschrieben (Scheiter, 2021). Befunde wie aus der ICIL-Studie 2018 (Eickelmann, Bos, Gerick & Labusch, 2019), nach denen sich für Deutschland im internationalen Vergleich deutliche Rückstände der Schülerinnen und Schüler zeigten und die mittleren computer- und informationsbezogenen Kompetenzen im Zeitraum von 2013 bis 2018 stagnierten, unterstreichen jedoch die weiterhin besondere „Relevanz einer gezielten und passgenauen Förderung der Kompetenzen von Schülerinnen und Schülern im reflektierten und kompetenten Umgang mit digitalen Medien …“ (Heldt, Lorenz & Eickelmann, 2022, S. 120). Für eine solche Förderung stellt eine angemessene schulische IT-Ausstattung zwar eine zentrale Voraussetzung dar, sie allein kann die effektive Nutzung digitaler Technologien und Medien seitens der Lehrkräfte aber nicht hinreichend erklären (Sailer, Murböck & Fischer, 2021). Als wesentliche Gelingensbedingungen eines elaborierten Medieneinsatzes im Unterricht werden vielmehr neben motivationalen Voraussetzungen der Lehrpersonen (Bürger et al., 2021) besonders deren professionelle Kompetenzen als relevant erachtet (Backfisch, Lachner, Stürmer & Scheiter, 2021). Für die lernförderliche Verwendung digitaler Medien benötigen Lehrkräfte dabei nicht nur eigene Medienkompetenzen (Senkbeil, Ihme & Schöber, 2020), sondern insbesondere professionelles Wissen und Können hinsichtlich der spezifischen Lehr- und Lernprozesse, die beim Unterrichten mit und über digitale Medien eine zentrale Rolle spielen (Scheiter, 2021). Da es auch in digitalen Lernkontexten eben diese pädagogisch-didaktischen Aspekte sind, die das professionelle Handeln von Lehrkräften maßgeblich kennzeichnen (Lorenz & Endberg, 2019), liegt der Fokus dieses Beitrags auf jenen Kompetenzfacetten, die sich als medienbezogene Lehrkompetenzen (FLDCB, 2017) bezeichnen lassen.

Hinsichtlich der Frage, wie zukünftige Lehrkräfte auf die veränderten Anforderungen ihrer professionellen Tätigkeit vorbereitet werden können bzw. sollen, besteht Konsens darüber, dass die Lehrkräftebildung an Hochschulen gerade beim Erwerb medien- bzw. digitalisierungsbezogener Kompetenzen eine zentrale Rolle einnehmen muss (Scheiter & Lachner, 2019; van Ackeren et al., 2019). Dabei wird die Vermittlung solcher Kompetenzen als essenzieller Bestandteil hochschulischer Aus- und Weiterbildung definiert (Kultusministerkonferenz, 2018) und als „Querschnittsaufgabe“ (Kultusministerkonferenz, 2016, S. 22) für alle Phasen von Lehrkräftebildung beschrieben. Um Forderungen nach einer entsprechenden curricularen Implementierung nachkommen zu können, gilt es somit zu klären, welche konkreten Maßnahmen in welchen Studienphasen bzw. -elementen zu verankern sind und mit welcher Zielsetzung dies geschieht. Angesichts der Vielfalt potenzieller Inhalte sollten derartige Lehr-Lern-Angebote dabei mit dem Ziel einer bestmöglichen Passung in Bezug auf die Bedarfe der Lernenden entwickelt werden (Schulze-Vorberg, Krille, Fabriz & Horz, 2021; van Vianen, 2018). Hierfür benötigen Hochschulen Instrumente, die es ihnen ermöglichen, studentische Bedarfe am Erwerb entsprechender Kompetenzen zuverlässig und praktikabel zu erfassen.

Der vorliegende Beitrag fokussiert medienbezogene Lehrkompetenzen als einen Kernbereich professioneller Handlungskompetenzen von Lehrpersonen im Kontext digitaler Medien in Schule und Unterricht. Ausgehend von einer Begriffsbestimmung sowie vom aktuellen Forschungsstand hinsichtlich medienbezogener Lehrkompetenzen wird zunächst dargelegt, warum es erforderlich bzw. vorteilhaft ist, die aus wahrgenommenen Kompetenzdefiziten hervorgehenden, individuellen Bedarfe aus studentischer Perspektive zu erfassen, und im Anschluss die Entwicklung und Überprüfung eines entsprechenden Fragebogens beschrieben. Der Beitrag schließt mit einer kritischen Diskussion des entwickelten Instruments, praktischen Implikationen für dessen Einsatz sowie Anregungen für weitere Forschung.

Medienbezogene Lehrkompetenzen: Definition und Befunde

Zur Beschreibung des Wissens- und Kompetenzrepertoires, das Lehrkräfte für den effektiven Einsatz digitaler Medien benötigten, liegen verschiedene nationale wie internationale Modelle vor. Anhand dieser wird skizziert, welche Aspekte im Folgenden mit dem Begriff medienbezogener Lehrkompetenzen bezeichnet werden, während die Modelle hier nicht im Detail erörtert werden.

Das Modell der Medienpädagogischen Kompetenz von Blömeke (2000) betont als zentrale Facetten die mediendidaktische sowie -erzieherische Kompetenz von Lehrkräften im Sinne der Medienverwendung für Lehr- und Lernprozesse bzw. zur Wahrnehmung von medienbezogenen Erziehungs- und Bildungsaufgaben im Unterricht. Im TPACK-Modell von Mishra und Koehler (2006) wird das technologiebezogene fachdidaktische Wissen (Technological Pedagogical Content Knowledge), das die Schnittmenge von technischem, didaktischem und fachwissenschaftlichem Wissen abbildet, ebenfalls als Kernbereich professionellen Wissens von Lehrpersonen betrachtet, das erforderlich ist, um den Einsatz digitaler Medien im Unterricht möglichst lernförderlich zu gestalten. Im European Framework for the Digital Competence of Educators (DigCompEdu) werden hinsichtlich der digitalen Kompetenzen von Lehrenden berufliche von pädagogischen Kompetenzen unterschieden und explizit um die Förderung digitaler Kompetenzen von Lernenden ergänzt (Redecker, 2017). Trotz verschiedener Begrifflichkeiten und Zugänge lassen sich als Gemeinsamkeit entsprechend „die durch alle Modelle in den Blick genommenen pädagogisch-didaktischen Kompetenzen der Lehrpersonen zur Gestaltung von mediengestütztem Unterricht“ (Lorenz & Endberg, 2019, S. 70) erkennen. Hieran anknüpfend fokussieren neuere Ansätze wie das „Heuristische Rahmenmodell medienbezogener Kernkompetenzen von Lehrkräften“ (FLDCB, 2017) explizit jene pädagogisch-didaktischen Kompetenzen, derer es zur Förderung des Lernens von Schülerinnen und Schülern in digitalen Settings bedarf, und bezeichnen diese als medienbezogene Lehrkompetenzen (Sailer et al., 2021; Sailer, Stadler et al., 2021).

Empirische Erkenntnisse bezüglich medienbezogener Lehrkompetenzen lassen sich aus verschiedenen Studien der zunehmenden Forschung zur Digitalisierung im Bildungs- und Schulbereich ableiten. So konnte etwa gezeigt werden, dass medienbezogene Lehrkompetenzen einen starken Zusammenhang mit der Förderung elaborierter Lernaktivitäten auf Seiten der Schülerinnen und Schüler aufweisen (Sailer et al., 2021). Eine wenig elaborierte Nutzung digitaler Medien im Unterricht kann somit als ein Indiz für mögliche Defizite der Lehrkräfte hinsichtlich medienbezogener Lehrkompetenzen gedeutet werden. Entsprechende Studien zeigten diesbezüglich bisher ein meist wenig zufriedenstellendes Bild. So erfolgte der generelle Einsatz digitaler Medien an Schulen häufig nur auf „passiver“, niedriger Stufe und Lehrkräfte förderten Schülerinnen und Schüler bezüglich der Nutzung nur vereinzelt auf hohem Niveau. Insbesondere mit Blick auf die pädagogisch-didaktischen Aspekte im Umgang mit digitalen Medien verfügten Lehrkräfte oft nur über mäßig bis mittelmäßig ausgeprägte Kompetenzen (Sailer, Murböck & Fischer, 2017, 2021). Heldt et al. (2022) resümieren im Rahmen der Studie „Schule digital – der Länderindikator“ bezüglich des Stands der unterrichtlichen Kompetenzförderung, dass über die Jahre 2015 bis 2017 sowie 2021 nur geringe bzw. keine Entwicklungen erkennbar seien. Als mögliche Gründe führen sie an, dass es Lehrkräften an geeigneten Konzepten zur Kompetenzförderung der Schülerinnen und Schüler fehle, was wiederum auf eher gering ausgeprägte medienbezogene Lehrkompetenzen hindeutet. Dieses Bild wird ergänzt durch Befunde, wonach etwa 80% der Lehrkräfte angeben, „weder in der ersten noch in der zweiten Phase der Lehrerausbildung gelernt zu haben, wie Medien lernförderlich im Unterricht eingesetzt, … werden können“ (Lorenz, Endberg & Eickelmann, 2019, S. 147). Gleichzeitig wünschen sich angehende wie erfahrene Lehrkräfte eine bessere Vorbereitung auf das Lehren und Lernen mit digitalen Medien (Henning-Kahmann, Vigerske & Rollett, 2019; Lorenz et al., 2019) und fordern verstärkt pädagogische Unterstützung an ihren Schulen hinsichtlich eines adäquaten Einsatzes digitaler Medien (Deutsche Telekom Stiftung, 2019). Aus diesen Befunden lässt sich ableiten, dass (angehende) Lehrkräfte einen erkennbaren Bedarf am Erwerb bzw. der Vertiefung medienbezogener Lehrkompetenzen aufweisen müssten.

Neben Studien zur Nutzung digitaler Medien im Unterricht durch Lehrkräfte stellen deren Selbsteinschätzungen einen häufig genutzten Zugang zur Untersuchung medienbezogener (Lehr-)Kompetenzen dar (Deutsche Telekom Stiftung, 2019; Lorenz et al., 2019; Rubach & Lazarides, 2019). So zeigt sich etwa für Deutschland, dass trotz eines positiven Trends und insgesamt hoher Selbsteinschätzungen der digitalisierungsbezogenen Kompetenzen teils noch erhebliche Unterschiede zwischen den Bundesländern bestehen und manche Kompetenzen von einem deutlichen Anteil der befragten Lehrkräfte negativ beurteilt werden (Endberg & Lorenz, 2022). Dies lässt einen prinzipiellen Fortbildungsbedarf vermuten, der bereits in nationalen (Zinn, Brändle, Pletz & Schaal, 2022) wie internationalen Studien (Hämäläinen et al., 2021) aufgezeigt werden konnte. Dabei sind die generell hohen Selbsteinschätzungen mit einem gleichzeitig bestehenden Bedarf an besserer Vorbereitung bzw. Fortbildung insofern vereinbar, als dass die Digitalisierung zunehmend komplexe und sich rasch wandelnde Anforderungen an die Kompetenzen von Lehrkräften hervorbringt.

Relativ neu ist die Erfassung medienbezogener Kompetenzen mittels Testinstrumenten. Während dies für Schülerinnen und Schüler etwa im Zuge der nächsten ICILS-Studie 2023 vorgesehen ist (Heldt et al., 2022), existieren aktuell nur wenige Verfahren für Lehrkräfte (Gerhard et al., 2020; Lachner, Backfisch & Stürmer, 2019). Die vorhandenen Instrumente gelten bislang jedoch z.B. aufgrund geringer Vorhersagegüte als nicht effizient (Scheiter, 2021), sodass die damit gewonnenen Erkenntnisse noch keine Rückschlüsse auf eventuelle Bedarfe zulassen.

Insgesamt deuten die Befunde darauf hin, dass Lehrkräfte noch nicht in ausreichendem Maß über medienbezogene Lehrkompetenzen verfügen, um das Potenzial digitaler Medien beim Einsatz im Unterricht vollumfänglich zu nutzen. Da die Relevanz professioneller Handlungskompetenzen im Kontext der Digitalisierung jedoch bereits im Studium erkannt wird (Lorenz & Endberg, 2019), ist anzunehmen, dass Studentinnen und Studenten ihre diesbezüglichen Defizite wahrnehmen und somit prinzipiell einen Bedarf an medienbezogenen Lehrkompetenzen aufweisen, wenngleich dieser individuell unterschiedlich stark ausgeprägt sein mag.

Erfassung von Bedarfen an medienbezogenen Lehrkompetenzen

Eine zielgruppen- und kompetenzorientierte Konzeption digitaler Lehr-Lern-Angebote zur Förderung medienbezogener Lehrkompetenzen im Studium setzt die konkrete Identifizierung und detaillierte Beschreibung vorhandener Bedarfe voraus (Capparozza, 2021). Dazu sollten die aus studentischer Perspektive wahrgenommenen (eigenen) Kompetenzdefizite adressiert und als individuelle Bedarfe an entsprechender Fort- bzw. Weiterbildung erfasst werden. Dies bietet den Vorteil, dass man über die selbsteingeschätzten Defizite auch Informationen bezüglich der wahrgenommenen Relevanz der jeweiligen Kompetenzen erhält, da ein geäußerter individueller Bedarf stets impliziert, dass der (teils) als defizitär wahrgenommenen Kompetenz von den Befragten ein gewisses Maß an Bedeutsamkeit zugeschrieben wird. Dieser für die Förderung wichtige Aspekt der subjektiv wahrgenommenen Relevanz bleibt bei der Erfassung über Testinstrumente oder Selbsteinschätzungen in der Regel unberücksichtigt, da diese zwar (selbsteingeschätzte) Kompetenzen, jedoch keine damit ggf. einhergehenden individuellen Bedarfe erfassen. Eine Ausnahme stellt das Selbsteinschätzungsinstrument „IN.K19“ zur Erfassung medienbezogener Lehrkompetenzen (Sailer, Stadler et al., 2021) dar, das mittels eines szenario-basierten Ansatzes nicht nur medienbezogene Kompetenzen, sondern auch diesbezügliche Einstellungen erfasst. Trotz des innovativen Ansatzes eignet sich das Instrument aber nur bedingt zur Erfassung individueller Bedarfe, da die vorgegebenen Szenarien ein einheitlich hohes Maß an Bedeutsamkeit induzieren und somit mögliche Unterschiede in der subjektiv wahrgenommenen Relevanz nivellieren. Um eine effiziente Passung zwischen zu gestaltenden Lehr-Lern-Angeboten und individuellen Bedarfen zu erreichen, sollten letztere daher ebenso praktikabel wie differenziert erfasst werden. Ein entsprechendes Instrument sollte möglichst solche Lehrkompetenzen fokussieren, die für das konkrete Unterrichtsgeschehen unmittelbar als relevant gelten, und die Bedarfe aus studentischer Perspektive über Items mit hohem Unterrichtsbezug (Scheiter, 2021) direkt erfragen.

Ausgangspunkt für die Neuentwicklung eines derartigen Instruments sollte die konzeptuelle Fundierung auf einem kompetenzorientierten Modell sein, da es z.B. im Rahmen des TPACK-Modells häufig an einer hinreichend genauen Konzeptualisierung sowie praktisch relevanten Operationalisierung der zu messenden Kompetenzen fehlt (Willermark, 2018). Für die vorliegende Zielsetzung erweist sich das dem IN.K19 zugrunde liegende heuristische Rahmenmodell medienbezogener Kernkompetenzen von Lehrkräften (FLDCB, 2017; Sailer, Stadler et al., 2021) als besonders geeignet. Es verknüpft theoretische und empirische Arbeiten aus relevanten Disziplinen (z.B. Lehr-Lernforschung, Medienpädagogik, Fachdidaktik) und integriert sie in ein schlüssiges Gesamtkonzept medienbezogener Lehrkompetenzen. Das Modell basiert auf Zielkompetenzen von Schülerinnen und Schülern, für die das von der Kultusministerkonferenz (2016) formulierte Konzept zur Medienbildung mit explizitem Fokus auf „digitale Medien“ adaptiert wurde. Medienbezogene Lehrkompetenzen sind auf eben jene Zielkompetenzen bezogen und werden als Fähigkeiten und Fertigkeiten von Lehrkräften definiert, die medienbezogenen Kompetenzen von Schülerinnen und Schülern zu berücksichtigen und zu fördern sowie digitale Medien gezielt für Lehr- und Lernprozesse im Unterricht einzusetzen. Konzeptuell unterscheidet das Modell medienbezogene informatische, pädagogisch-psychologische, fachliche sowie fachdidaktische Kenntnisse der Lehrkräfte im Sinne einer Wissenskomponente (vgl. TPACK) von einer stärker kompetenzorientierten Handlungskomponente, die medienbezogene Lehrkompetenzen explizit als Teildimensionen von Problemlöseprozessen definiert. Unter Bezug auf die aktionalen Facetten des Rubikon-Modells der Handlungsphasen (Achtziger & Gollwitzer, 2018) lassen sich die Lehrkompetenzen in die Phasen „Planung und Entwicklung“, „Realisierung“ sowie „Evaluation“ einteilen, die im heuristischen Rahmenmodell um die Phase des „Sharing (Reflexion und Austausch)“ ergänzt werden (FLDCB, 2017). Diese Systematisierung von 19 medienbezogenen Lehrkompetenzen in vier Phasen unterrichtsbezogenen Handelns (Abbildung 1) diente als Grundlage für die Entwicklung unseres Instruments.

Abbildung 1 Medienbezogene Lehrkompetenzen von Lehrkräften in vier Phasen unterrichtsbezogenen Handelns nach dem heuristischen Rahmenmodell (FLDCB, 2017).

Ziele und Fragestellungen

Primäres Ziel war es, ein Instrument zur Erfassung studentischer Bedarfe an medienbezogenen Lehrkompetenzen im Lehramtsstudium zu entwickeln und dessen Eigenschaften psychometrisch zu überprüfen. Im Anschluss an die Itementwicklung sollte eine Vorstudie zunächst der Untersuchung der faktoriellen Struktur des Fragebogens und der Identifizierung von Optimierungsbedarfen dienen. Ziel der Hauptstudie war es, zu klären, ob ggf. in der Vorstudie aufgedeckte Fehlspezifikationen im Modell durch eine potenzielle Revision ausblieben. Zudem sollte die überarbeitete Version einer erweiterten Prüfung unterzogen und die Annahme von klar unterscheidbaren Dimensionen kritisch evaluiert werden. Denn selbst wenn entsprechende Ergebnisse analog zum heuristischen Rahmenmodell (FLDCB, 2017) für ein Messmodell mit vier Faktoren und eine ausreichend zuverlässige Messung der einzelnen Dimensionen sprächen, ließe sich hinterfragen, ob die verwendeten Items ausschließlich als Indikatoren für die jeweilige Dimension fungieren (Gignac & Kretzschmar, 2017). Alternativ wäre auch ein hierarchisches Modell, in welchem alle Items zusätzlich zu den einzelnen Dimensionen einen gemeinsamen übergeordneten Faktor im Sinne eines generellen bzw. globalen Bedarfs an medienbezogenen Lehrkompetenzen messen, denkbar und mit dem zugrunde gelegten Rahmenmodell vereinbar. Diesbezüglich stellt die Bestätigung einer mehrdimensionalen Struktur noch keine hinreichende Entscheidungshilfe dar, weil Multidimensionalität nicht per se impliziert, dass gebildete Subskalen bedeutsame und zuverlässige Informationen über Dimensionen liefern, die sich klar von einem übergeordneten Konstrukt (hier: globaler Bedarf) unterscheiden (Reise, Bonifay & Haviland, 2013). Dabei besitzt diese Frage nicht nur theoretische, sondern insbesondere diagnostische Relevanz, da es in bestimmten Situationen möglich ist, dass einzelne Dimensionen besser durch einen Gesamttestwert gemessen werden als durch die entsprechenden Subskalenwerte (Haberman, 2008).

Dies lässt sich mit Hilfe hierarchischer Modelle wie z.B. dem Bifaktormodell (Reise, 2012) überprüfen, das für jedes Item zwei Quellen erklärter Varianz annimmt: ein breit angelegtes, in allen Subskalen enthaltenes Konstrukt (g = Generalfaktor), auf dem alle Items laden, sowie konzeptuell enger definierte Teilaspekte dieses Konstrukts (s = spezifische Faktoren), auf denen jeweils nur eine bestimmte Teilmenge der Items lädt. Im klassischen Bifaktormodell sind die spezifischen Faktoren zudem orthogonal, d.h. sowohl untereinander als auch mit dem Generalfaktor unkorreliert. Eid, Geiser, Koch und Heene (2017) zeigen jedoch auf, dass Bifaktormodelle nur dann sinnvoll anwendbar sind, wenn die spezifischen Faktoren als austauschbar gelten können (z.B. bei multiplen Ratern). Wenn es sich hingegen um strukturell verschiedene Aspekte (z.B. IQ-Subtests) handelt, sollte ein anderes Modell wie etwa das Bifaktor-(S-1)-Modell verwendet werden (Eid, 2020; Eid et al., 2017). Dabei wird einer der Teilaspekte des Konstrukts nicht als spezifischer Faktor modelliert, sondern dient als Vergleichs-/Referenzfaktor und definiert somit die Bedeutung des Generalfaktors (g = sRef). Zudem können die spezifischen Faktoren untereinander, jedoch nicht mit dem Referenzfaktor korrelieren.

Auf Basis der beschriebenen Ziele wurden die folgenden Fragestellungen formuliert:

  1. 1.
    Weisen die im heuristischen Rahmenmodell „Kernkompetenzen von Lehrkräften für das Unterrichten in einer digitalisierten Welt“ (FLDCB, 2017) enthaltenen Lehrkompetenzen in der studentischen Wahrnehmung eine hinreichend hohe Relevanz auf, um eine möglichst unverfälschte Erfassung der Bedarfe an medienbezogenen Lehrkompetenzen im Studium zu ermöglichen?
  2. 2.
    Lässt sich die angenommene Struktur (Dimensionalität) des Bedarfs an medienbezogenen Lehrkompetenzen, d.h. die Unterscheidung in vier Phasen unterrichtsbezogenen Handelns, durch das (überarbeitete) Instrument psychometrisch stützen?
  3. 3.
    Geht die Annahme eines übergeordneten Generalfaktors und die Aufsummierung der Items zu einem Gesamttestwert mit einer höheren Messgenauigkeit einher?
  4. 4.
    Lassen sich neben der dimensionalen Struktur weitere Belege für die Konstruktvalidität des entwickelten Instruments finden?

Methode

Itementwicklung

Die Items wurden unter explizitem Bezug auf das heuristische Rahmenmodell (FLDCB, 2017) mit dem Ziel entwickelt, die 19 medienbezogenen Lehrkompetenzen inhaltlich möglichst unverändert zu übernehmen. Da diese bereits als erforderliche Kompetenzen formuliert waren (FLDCB, 2017, S. 72), eignen sie sich ebenso für eine Erfassung von Bedarfen und konnten durch den vorangestellten Satz „Ich habe einen persönlichen Bedarf, die folgenden Lehrkompetenzen im Rahmen meines Studiums zu erwerben bzw. zu vertiefen …“ direkt übernommen werden. Die so entstandenen Items wurden dahingehend adaptiert, dass eine sprachliche Präzisierung hinsichtlich zweier Aspekte vorgenommen wurde: Zum einen sollte bei einigen Items durch eine Hinzunahme von „Schülerinnen und Schüler“ sichergestellt werden, dass die Kompetenzen von den Befragten tatsächlich als Lehrkompetenzen und nicht als eigene Medienkompetenzen verstanden werden. Zum anderen diente die Ergänzung von „digitale Medien“ bei einigen Items dem einheitlichen Fokus auf medienbezogene statt allgemeine Lehrkompetenzen. Die Reihenfolge und Einteilung der Items in vier Phasen unterrichtsbezogenen Handelns wurde aus dem Rahmenmodell übernommen. Zur Beantwortung der Items wurde eine Likert-Type-Skala mit fünf voll verbalisierten Antwortkategorien in aufsteigender Skalenorientierung (stimme nicht zustimme eher nicht zuteils, teilsstimme eher zustimme zu) und einer zusätzlichen – visuell abgehobenen – nicht-inhaltlichen DK-Kategorie (Menold & Bogner, 2015) verwendet, welche mit „halte ich nicht für relevant“ beschriftet war. Mit dieser sollte sichergestellt werden, dass eine fehlende Zustimmung hinsichtlich des Bedarfs nicht allein aufgrund eines Mangels an wahrgenommener Relevanz der jeweiligen Lehrkompetenz geäußert wurde. Auch sollte über die DK-Kategorie erfasst werden, ob einzelne medienbezogene Lehrkompetenzen als nicht relevant eingeschätzt werden.

Vorstudie

Die entwickelten Items, die in Tabelle 1 im Elektronischen Supplement (ESM) 1 enthalten sind, wurden im Rahmen einer Vorstudie im Sommersemester 2019 an der Pädagogischen Hochschule Freiburg in eine Online-Erhebung integriert und pilotiert. Die Items wurden von N = 254 Studentinnen und Studenten des Lehramts nahezu vollständig bearbeitet (siehe Tabelle 1, ESM 2), sodass deren Daten in die Analysen eingingen (für Details zur Stichprobe siehe ESM 3). Da auf Basis des Rahmenmodells bereits eine klare Hypothese bezüglich Faktorenanzahl und Itemzuordnung vorlag, führten wir modellgenerierend konfirmatorische Faktorenanalysen durch (Brown, 2015). Zur Evaluation der Modellkonformität wurden jedoch weder ein inferenzstatistischer Modelltest (χ 2-Test) noch deskriptive Gütemaße (RMSEA, CFI/TLI, SRMR) herangezogen, da zahlreiche Simulationsstudien aufzeigen konnten, dass eine solche Beurteilung der Güte des Gesamtmodells („global fit“, „overall fit“) in hohem Maße von unterschiedlichen Daten- und Modellkonstellationen abhängig ist und nur eine begrenzte Nützlichkeit für das Auffinden von Fehlspezifikationen in einem spezifischen Modell(-teil) aufweist (Greiff & Heene, 2017). Wir wählten daher mit dem „detection of misspecification“-Ansatz (Saris et al., 2009) ein Verfahren, das die gezielte Suche nach lokalen Fehlspezifikationen im Modell ermöglicht. Die für die Anwendung des Verfahrens nötigen Kriterien wurden wie folgt festgelegt1: α-Fehler = .05, power ≥ .80 sowie δ i = .15 für korrelierte Residuen (Fehlerkovarianz) bzw. δ i = .40 für Nebenladungen.

Es zeigte sich, dass die theoretische Struktur des Rahmenmodells durch ein vierfaktorielles Modell psychometrisch gestützt wurde (siehe ESM 4) und die einzelnen Dimensionen hinreichend hohe Reliabilitäten (ω = .74–.86) aufwiesen. Durch die Suche nach lokalen Fehlspezifikationen im Modell wurden jedoch folgende erforderliche Modifikationen aufgedeckt: Auffällige Parameterschätzungen von Item PE 7 ließen einen im Itemtext fehlenden Bezug zu digitalen Medien vermuten, wodurch das Item nicht im direkten Zusammenhang mit medienbezogenen Lehrkompetenzen stand. Es wurde daher um den Zusatz „… beim Umgang mit digitalen Medien.“ ergänzt. Die übrigen Modifikationen betrafen korrelierte Residuen als eine Form des method bias (Podsakoff, MacKenzie, Lee & Podsakoff, 2003), bei der ein Teil der Varianz durch externe (methodische) Gründe, wie z.B. negativ oder ähnlich formulierte Items sowie sich überlappende Inhalte erklärt wird. In das Modell musste somit eine Fehlerkovarianz zwischen Item PE 1 und PE 2 aufgenommen werden, da deren Itemtexte sehr knapp und inhaltlich vermutlich schwer unterscheidbar ausfielen. Dies erfolgte ebenso für Item PE 5 und PE 6 bzw. für Item PE 8 und PE 9, deren Itemtexte wortgleich begannen. Bei der Überarbeitung des Instruments wurden vor allem diese Items so abgeändert, dass sie keine bzw. kaum wortgleiche Formulierungen aufwiesen und zudem inhaltlich besser zu unterscheiden waren. Da sich zwischen Item RE 4 und RE 5 eine grenzwertig erhöhte Fehlerkovarianz zeigte, entschieden wir uns dafür, auch diese beiden Items sprachlich zu überarbeiten. Weitere Änderungen umfassten etwa die Aufnahme von „Schülerinnen und Schüler“ in zwei Items sowie von „Lehr-Lern-Arrangements“ bzw. „Lehr-Lern-Szenarien“ in fünf Items. Das überarbeitete Instrument enthielt somit alle 19 Items der ersten Version mit den beschriebenen Revisionen (für alle Änderungen siehe Tabelle 2, ESM 1), während die Reihenfolge und Einteilung der Items sowie die Antwortskala unverändert blieben. Um eine möglichst eindeutige Interpretation der Antworten zu gewährleisten, wurde der Instruktionstext dahingehend präzisiert, dass die Beantwortung der Items in Bezug auf ein anzugebendes Studienfach erfolgen sollte.

Weitere Instrumente

Um Hinweise auf das Vorliegen konvergenter Validität zu erhalten, wurden zwei selbst entwickelte und erprobte Items verwendet (Henning-Kahmann et al., 2019). Die Items (im Folgenden Prep-dM 1 & 2) lauteten „a) Durch mein Studium fühle ich mich auf den Einsatz von digitalen Medien, digitalisierten Lernmaterialien und Online-Tools in meinem zukünftigen Unterricht gut vorbereitet.“ sowie „b) Ich würde mir durch das Studium eine bessere Vorbereitung auf den Einsatz von digitalen Medien im Unterricht wünschen.“ und wurden mit Hilfe der gleichen Antwortskala beantwortet, wobei die DK-Kategorie mit „nicht beurteilbar“ beschriftet war. Die Begriffe digitale Medien, digitalisierte Lernmaterialien sowie Online-Tools wurden zuvor mit Beispielen verdeutlicht.

Stichprobe

Für die Hauptstudie wurden Anfang 2021 alle im Lehramt eingeschriebenen Personen der Pädagogischen Hochschule Freiburg zu einer Onlinebefragung bezüglich des Bedarfs an medienbezogenen Lehrkompetenzen im Studium eingeladen. Als Teilnahmeanreiz wurden unter den Befragten Gutscheine (je 20 Euro) einer örtlichen Buchhandlung verlost. Insgesamt gingen die Daten von N = 232 Studentinnen (87%) und Studenten (12%) der Primarstufe (70%) bzw. Sekundarstufe (30%) in die Analysen ein, die nahezu vollständig an der Befragung teilnahmen, (siehe Tabelle 1, ESM 2). Der Großteil der Befragten (73%) gab an, bisher an keiner Lehrveranstaltung oder Fortbildung zu digitalen Medien oder medienbezogenen Lehrkompetenzen teilgenommen zu haben. Die zur Beantwortung der Items ausgewählten Studienfächer verteilten sich v.a. auf die Fächergruppen „Sprachen“ (44%) und „MINT“ (35%), gefolgt von „Kunst, Kultur & Sport“ (12%), „Soziales, Gesellschaft & Wirtschaft“ (6%) sowie anderen (z.B. ungültigen) Angaben (3%). Weitere Details zur Stichprobe können ESM 3 entnommen werden.

Analysen

Zur Beantwortung von Fragestellung 1 wurden die Häufigkeiten der DK-Kategorie („halte ich nicht für relevant“) ausgewertet, um aufzuzeigen, ob die abgefragten Lehrkompetenzen als relevant erachtet wurden und somit Hinweise dafür vorlagen, dass das adaptierte Rahmenmodell grundsätzlich zur Erfassung von Bedarfen an medienbezogenen Lehrkompetenzen aus studentischer Perspektive geeignet ist.

Fragestellung 2 wurde mit Hilfe des „detection of misspecification“-Ansatzes im Rahmen konfirmatorischer Faktorenanalysen beantwortet (vgl. Vorstudie). Unter Berücksichtigung der Verteilungseigenschaften der Daten wählten wir für die Analysen ein robustes ML-Schätzverfahren (MLR)2, bei dem die Teststatistik sowie Standardfehler korrigiert werden (Savalei, 2014) und das sich bei fünf oder mehr geordneten Antwortkategorien als zuverlässig erwiesen hat (Rhemtulla, Brosseau-Liard & Savalei, 2012). Da nur eine geringe Menge zufällig fehlender Werte (missing at random, MAR) vorlag (siehe Tabelle 2, ESM 2), waren durch das entsprechende FIML-Verfahren (full information maximum likelihood) bei der vorliegenden Stichprobengröße konsistente Schätzwerte zu erwarten (Wolf, Harrington, Clark & Miller, 2013). Um eine Beurteilung der Modelle zu ermöglichen, werden gängige Gütemaße (χ 2, SRMR) bzw. robuste Varianten (RMSEA, CFI/TLI) zwar berichtet, jedoch wurden diese nicht zur Modellevaluation verwendet.

Für die erweiterte Prüfung der faktoriellen Struktur (Fragestellung 3) wählten wir ein Bifaktor-(S-1)-Modell, da die einzelnen Dimensionen des Bedarfs an medienbezogenen Lehrkompetenzen nicht austauschbar sind, sondern im Rahmen eines Phasenmodells unterrichtsbezogenen Handelns strukturell verschiedene Aspekte darstellen. Nach Eid (2020) ist dieser Ansatz (nur) dann sinnvoll, wenn sich der gewählte Referenzfaktor von den übrigen Faktoren theoretisch abhebt oder von besonderem Interesse ist. Zur Evaluation des Modells3 wurden für alle Subkalen sowie den Gesamttest die modellbasierten, mehrdimensionalen Omega-Koeffizienten Omega-total (ω T), Omega-hierarchisch (ω H) und Omega-spezifisch (ω S) sowie das zweiseitige asymmetrische Konfidenzintervall berechnet und wie folgt beurteilt: Für die Annahme eines Generalfaktors und Bildung eines Gesamttestwertes über alle Items und Skalen hinweg sollte Omega-hierarchisch (ω H bzw. ω Skala-H) Werte von ≥ .50, besser jedoch ≥ .75 aufweisen (Reise et al., 2013). Um unterscheidbare spezifische Faktoren unabhängig vom Generalfaktor aufzuzeigen und Subskalenwerten zu verwenden, sollte Omega-spezifisch (ω Skala-S) für alle Subskalen Werte von mindestens .30 aufweisen (Gignac & Kretzschmar, 2017), wobei die untere Grenze des Konfidenzintervalls einen Wert von .10 nicht unterschreiten sollte (Schermelleh-Engel & Gäde, 2020).

Zur Beantwortung von Fragestellung 4 wurden die beiden Items Prep-dM 1 & 2 gleichzeitig als Prädiktoren einer multiplen (latenten) Regression in ein Strukturgleichungsmodell aufgenommen, um eine Überschätzung der Vorhersagekraft eines einzelnen Prädiktors zu vermeiden (Kline, 2015).

Für die statistischen Analysen wurde ein 5%-Signifikanzniveau gewählt und das R-Paket semTools (Jorgensen, Pornprasertmanit, Schoemann & Rosseel, 2018), insbesondere die Funktion miPowerFit zur Anwendung des „detection of misspecification“-Ansatzes, verwendet.

Ergebnisse

Deskriptive Befunde

Alle Items wiesen mit Mittelwerten von M = 3.88 bis M = 4.47 und Standardabweichungen von SD = 0.78 bis SD = 1.00 eine deutlich linksschiefe Verteilung, jedoch keine Deckeneffekte auf (siehe Tabelle 2, ESM 1). Die äußerst geringe Verwendung (0–1.3%) der DK-Kategorie („halte ich nicht für relevant“) zeigte, dass die Lehrkompetenzen wie bereits in der Vorstudie von den Studentinnen und Studenten als relevant erachtet wurden und kann in Bezug auf Fragestellung 1 somit als Beleg für die erfolgreiche Adaption des heuristischen Rahmenmodells betrachtet werden.

Faktorstruktur

Zur Überprüfung des revidierten Instruments wurden zunächst konfirmatorische Faktorenanalysen des vierfaktoriellen Messmodells (vgl. Vorstudie) durchgeführt. Für das initiale Modell (χ 2 [df = 146] = 244.83, p < .001, RMSEA = .062, SRMR = .052, CFI = .927; TLI = .915) wurde bei 3 der insgesamt 170 fixierten Parameter eine Fehlspezifikation in Form korrelierter Residuen (Fehlerkovarianzen) ausgewiesen. Zudem wurden 2 der insgesamt 57 fixierten Parameter als Fehlspezifikationen in Form von Nebenladungen angezeigt. Als erste Fehlspezifikation nahmen wir den korrelierten Fehlerterm von Item PE 1 und PE 2 (EPC = 0.174, MI = 24.92) in das Modell auf. In der Folge zeigten sich noch insgesamt vier Fehlspezifikationen, von denen wir schrittweise jeweils den korrelierten Fehlerterm von Item PE 2 und PE 3 (EPC = 0.156, MI = 20.21) sowie von Item PE 1 und PE 3 (EPC = 0.180, MI = 20.07) zum Modell hinzufügten. Für das daraus resultierende Modell (χ 2 [df = 143] = 195.91, p = .002, RMSEA = .045, SRMR = .047, CFI = .961; TLI = .954) wurde lediglich eine Fehlerkovarianz zwischen Item SH 1 und SH 3 als Fehlspezifikation ausgewiesen. Da es sich hierbei jedoch um einen grenzwertigen und negativen EPC-Wert (–.151) handelte, setzten wir diesen Parameter nicht frei. Auch bezüglich der beiden verbliebenen, als Fehlspezifikationen angezeigten Nebenladungen zweier SH-Items auf den Faktor „Evaluation“ entschieden wir uns dazu, diese nicht für eine Respezifikation des Modells heranzuziehen. Im Falle von Item SH 2 handelte es sich um eine negative Nebenladung, während bei Item SH 3 die Differenz zur Hauptladung zwar auffällig war, jedoch noch ausreichend gering (.246) ausfiel. Aufgrund der vorgefundenen korrelierten Fehlerterme in der Dimension „Planung und Entwicklung“ konnte hingegen nicht davon ausgegangen werden, dass den Items ein eindimensionales Faktormodell zugrunde liegt. Daher fassten wir die Items PE 1 bis 3 zu einem neuen Faktor („Planung“, PL) sowie die Items PE 4 bis 9 zum Faktor „Entwicklung“ (EN) zusammen. Für dieses erweiterte Modell (χ 2 [df = 142] = 190.01, p = .004, RMSEA = .044, SRMR = .045, CFI = .965; TLI = .958) ergaben sich im Vergleich zum vorherigen (vierfaktoriellen) Modell keine weiteren bzw. neuen Fehlspezifikationen, weshalb wir es hinsichtlich Fragestellung 2 als finales Messmodell annahmen. Die standardisierten Parameterschätzungen des fünffaktoriellen Modells (siehe Tabelle 1, ESM 5) zeigten substanzielle bis hohe Faktorladungen (.57–.84) und sind in Abbildung 2 dargestellt.

Abbildung 2 Ergebnisse der konfirmatorischen Faktorenanalyse für das fünffaktorielle Modell; standardisierte Koeffizienten, Standardfehler in Klammern, alle Werte p < .001; zur besseren Übersichtlichkeit sind nicht alle Modellparameter (z.B. fixierte Residualvarianzen) dargestellt.

Zur erweiterten Prüfung der faktoriellen Struktur (Fragestellung 3) wurde ein Bifaktor-(S-1)-Modell analysiert, für das die Dimension „Planung“ (PL) als Referenzfaktor ausgewählt wurde4. Die drei Items dieses neu gebildeten Faktors unterscheiden sich inhaltlich von den übrigen Items darin, dass die damit angesprochenen Lehrkompetenzen globalere Aspekte der generellen Planung von mediengestütztem Unterricht umfassen, anstatt auf einzelne differenziertere Aspekte des unterrichtsbezogenen Handelns zu fokussieren. Die für das Bifaktor-(S-1)-Modell nötige Kontrastierung des Referenzfaktors war somit gegeben. Die Ergebnisse zeigten für dieses Modell (χ 2 [df = 130] = 167.46, p = .015, RMSEA = .040, SRMR = .040, CFI = .973; TLI = .964) keine anomalen Ergebnisse sowie für alle Faktoren (g & s) ausschließlich signifikante Ladungen.

Reliabilität

Die modellbasierten Reliabilitätsschätzungen des Bifaktor-(S-1)-Modells (Tabelle 1) ergaben, dass nur für den Gesamttest (ω H = .775) sowie die Subskala EN (ω Skala-H = .552) hinreichend hohe Werte für Omega-hierarchisch vorlagen. Für die übrigen Subskalen fielen die Werte deutlich niedriger aus (ω Skala-H = .116–.290). Für Omega-spezifisch ergaben sich für alle Subskalen hingegen Werte von ω Skala-S = .308–.577, die somit größer als .30 ausfielen und deren untere Grenze des Konfidenzintervalls jeweils deutlich über .10 lag. Es zeigte sich entsprechend, dass lediglich die wahre Varianz der Subskala EN zu einem bedeutenden Teil (ca. 64%) auf den Generalfaktor zurückgeführt werden konnte, während die wahre Varianz der übrigen Subskalen insgesamt in maßgeblichem Umfang (ca. 61–83%) auf der subskalenspezifischen Varianz beruhte. Folglich sprechen die Ergebnisse gegen die Annahme eines Generalfaktors und die Bildung eines Gesamttestwertes über alle Subskalen hinweg und zeigen, dass es sich bei den Dimensionen des Bedarfs an medienbezogenen Lehrkompetenzen um distinkte Faktoren handelt. Das verwendete Bifaktor-(S-1)-Modell lieferte somit wertvolle Erkenntnisse für die erweiterte Prüfung der faktoriellen Struktur, wurde aber zugunsten des zuvor bestätigten, fünffaktoriellen Modells (Abbildung 2) verworfen. Alle folgenden Ergebnisse beziehen sich somit auf dieses Modell.

Die Faktorreliabilitäten des fünffaktoriellen Modells fielen mit Werten von ω = .85 (Planung), ω = .86 (Entwicklung), ω = .75 (Realisierung), ω = .70 (Evaluation) sowie ω = .74 (Sharing) hinreichend hoch aus. Die Konfidenzintervalle liefern Hinweise auf die Präzision der Reliabilitätsschätzung, die für die (Sub-)Skalen „Planung“ und „Entwicklung“ deutlich höher lag als für die übrigen drei (Sub-)Skalen.

Tabelle 1 Reliabilitätsschätzungen des Gesamttests und der Subskalen im Rahmen des Bifaktor-(S-1)-Modells

Validität

Die Faktoren zeigten untereinander mittlere bis hohe signifikante Korrelationen mit Werten von r = .44 bis r = .82 (siehe Tabelle 2, ESM 5). Dabei lag die Mehrzahl der Zusammenhänge klar unterhalb der Werte (.80–.85), ab denen man von einer (zu) geringen diskriminanten Validität ausgeht (Brown, 2015). Lediglich die Korrelationen der jeweils „benachbarten“ Dimensionen (siehe Abbildung 2) erreichten diesbezüglich Grenzwerte (.80–.82). Über die faktorielle Struktur hinaus lieferten die Daten weitere Hinweise, die für die Konstruktvalidität des entwickelten Instruments sprechen (Fragestellung 4). So zeigten die zur Überprüfung der konvergenten Validität verwendeten Items Prep-dM 1 & 2 mit Mittelwerten von M = 2.14 (SD = 1.06) bzw. M = 4.45 (SD = 0.90), dass sich die Befragten durch ihr Studium eher nicht gut auf den Einsatz digitaler Medien im Unterricht vorbereitet fühlten und sich eine bessere Vorbereitung darauf wünschten. Ein entsprechendes Modell multipler (latenter) Regressionen der fünf Dimensionen auf diese Items (χ 2 [df = 170] = 208.15, p = .025, RMSEA = .035, SRMR = .043, CFI = .973; TLI = .966) zeigte, dass der Bedarf an medienbezogenen Lehrkompetenzen nicht signifikant durch das Gefühl, auf den Einsatz digitaler Medien im Unterricht (nicht) gut vorbereitet zu sein (Item Prep-dM 1), vorhergesagt wurde. Der Wunsch nach einer besseren Vorbereitung auf den Einsatz von digitalen Medien im Unterricht (Item Prep-dM 2) erwies sich dagegen als signifikanter Prädiktor für alle Komponenten des Bedarfs (siehe Tabelle 2, ESM 5). Dabei fiel das Regressionsgewicht für die Dimensionen „Planung“ (β 1 = 0.40) höher aus als für die übrigen Dimensionen (β 1 = 0.19–0.29).

Diskussion

Ziel dieser Arbeit war die Entwicklung und psychometrische Überprüfung eines Instruments, das es ermöglicht, die aus wahrgenommenen Kompetenzdefiziten hervorgehenden, individuellen Bedarfe an medienbezogenen Lehrkompetenzen im Lehramtsstudium aus studentischer Perspektive zu erfassen. Dazu wurde das heuristische Rahmenmodell „Kernkompetenzen von Lehrkräften für das Unterrichten in einer digitalisierten Welt“ (FLDCB, 2017) erfolgreich adaptiert, was sich darin zeigt, dass die abgefragten Lehrkompetenzen von nahezu allen Studentinnen und Studenten als relevant erachtet wurden. Einhergehend mit der klaren Bedeutsamkeit der einzelnen Lehrkompetenzen konnten wir mit unserem Instrument insgesamt hohe bis sehr hohe Bedarfe nachweisen, die einzelnen Kompetenzen zu erwerben bzw. zu vertiefen. Dieses Ergebnis steht im Einklang mit bisherigen Befunden, nach denen Lehrkräfte oft nur über (mittel-)mäßig ausgeprägte Lehrkompetenzen verfügen (Sailer et al., 2017, 2021) und sich eine bessere Vorbereitung auf das Lehren und Lernen mit digitalen Medien wünschen (Lorenz et al., 2019). Dabei könnte der in der Hauptstudie tendenziell höhere Bedarf im Zusammenhang mit den Bedingungen zum Jahresbeginn 2021 (Schulschließungen, Home-Schooling, etc.) stehen, wenngleich der geäußerte Bedarf bereits in der Vorstudie (2019) recht hoch ausfiel. Insgesamt zeigt sich, dass auch in unserer Untersuchung „die im Rahmenmodell identifizierten Einzelkomponenten operationalisiert … und zur Testkonstruktion herangezogen werden“ (FLDCB, 2017, S. 65) konnten.

Eine zentrale Fragestellung bestand darin, ob die konzeptuelle Struktur des adaptierten Rahmenmodells psychometrisch gestützt werden kann. Im Rahmen der Vorstudie wurde die angenommene Dimensionalität durch ein vierfaktorielles Modell zunächst gestützt. Gleichwohl wurden durch die Suche nach lokalen Fehlspezifikationen im Modell erforderliche Modifikationen aufgedeckt, die eine Überarbeitung der Items erforderlich machten. Die Überprüfung des revidierten Instruments ergab, dass nahezu keine Fehlspezifikationen mehr vorhanden waren. Jedoch erwies sich die Dimension „Planung und Entwicklung“ nicht als eindimensional, da die ersten drei Items offensichtlich andere Inhalte erfassten als die übrigen Items. Nach diesem Befund wurde das angenommene Modell um einen fünften Faktor erweitert. Die Items des zusätzlichen Faktors „Planung“ (PL) scheinen den Bedarf an globaleren Aspekten der generellen Planung von mediengestütztem Unterricht anzusprechen und weniger auf ausdifferenzierte Aspekte unterrichtsbezogenen Handelns zu fokussieren.

Bezüglich einer alternativen Faktorstruktur, bei der die Annahme distinkter Faktoren zugunsten eines übergeordneten Generalfaktors kritisch hinterfragt wird, konnten wir durch das Bifaktor-(S-1)-Modell zeigen, dass ein solcher g-Faktor nicht ausreichend zur Varianzaufklärung beiträgt und die Aufsummierung der Items über alle Subskalen hinweg nicht zu einem reliableren Gesamttestwert führt. Da mit den Items des verwendeten Referenzfaktors „Planung“ (PL) globalere Aspekte im Sinne eines eher „generellen“ Bedarfs bzgl. Planung erfasst werden, zeigt sich somit, dass die Faktoren durchaus unterscheidbare Dimensionen des Bedarfs an medienbezogenen Lehrkompetenzen darstellen, die sich auf die einzelnen Phasen unterrichtsbezogenen Handelns beziehen. Es empfiehlt sich daher nicht, einen Gesamttestwert zu bilden, sondern stattdessen die Subskalenwerte zu verwenden. Die hinreichend hohen Faktorreliabilitäten des fünffaktoriellen Modells sprechen dafür, dass sich die studentischen Bedarfe auf diese Weise zuverlässig abbilden lassen.

Der direkt erfragte Wunsch nach einer besseren Vorbereitung auf den Einsatz von digitalen Medien im Unterricht erwies sich zudem als signifikanter Prädiktor für alle Bedarfsdimensionen mit teils mittleren Effekten. Dies kann als ein erster Hinweis auf die konvergente Validität unseres Instruments betrachtet werden.

Limitationen und Anregungen für weitere Forschung

Aufgrund der Prämisse, ausschließlich für das konkrete Unterrichtsgeschehen relevante Kernkompetenzen zu berücksichtigen, fokussiert unser Instrument die pädagogisch-didaktischen Handlungskompetenzen von Lehrkräften, die für Problemlöseprozesse im unterrichtlichen Handeln als relevant betrachtet werden. Für die Nutzung digitaler Medien im Unterricht spielen jedoch nicht nur wissensbezogene Aspekte, sondern auch motivationale, affektive und einstellungsbezogene Faktoren eine wichtige Rolle (Bürger et al., 2021). Wenngleich bisher wenig über den Zusammenhang dieser Variablen mit individuellen Bedarfen an medienbezogenen (Lehr-)Kompetenzen bekannt ist, dürfte es für die weitere Forschung ratsam sein, relevante Bezüge auszumachen und zu berücksichtigen. Damit ist zugleich ein Kernmerkmal der Validität angesprochen: die Einbindung in ein nomologisches Netzwerk, das theoretische Annahmen über konkrete Zusammenhänge des untersuchten mit weiteren, relevanten Konstrukten enthält und über Aussagen hinsichtlich der Übereinstimmung von theoretischen Vorhersagen und empirischen Beobachtungen zur Prüfung der Konstruktvalidität beiträgt. Erste Hinweise auf die konvergente Validität unseres Instruments können zwar Teil eines solchen Netzwerkes sein, müssen aber um weitere theoretisch begründete Konstrukte, wie z.B. Selbsteinschätzungen medienbezogener Kompetenzen (Rubach & Lazarides, 2019), ergänzt werden. Hier wäre vor allem wünschenswert, mögliche Zusammenhänge zwischen von uns ermittelten Bedarfen und im „IN.K19“ (Sailer, Stadler et al., 2021) erfassten Lehrkompetenzen bzw. Einstellungen zu untersuchen, da es sich um zwei unterschiedliche Selbsteinschätzungsinstrumente handelt, denen dasselbe heuristische Rahmenmodell zugrunde liegt.

Auch muss berücksichtigt werden, dass die Lehrkompetenzen im Rahmenmodell zwar als fachübergreifend und -spezifisch anwendbar beschrieben werden, es dies jedoch empirisch zu belegen gilt. Um valide Gruppenvergleiche etwa zwischen Lehramtsstudiengängen oder Fächern vornehmen zu können, bedarf es zunächst eines Nachweises der Messäquivalenz/-invarianz unseres Instruments. Darüber hinaus kann es als Limitation betrachtet werden, dass die Daten an einer Pädagogischen Hochschule erhoben wurden, an der etwa gymnasiale Lehramtsstudiengänge nicht angeboten werden. Eine Repräsentativität für die Vielzahl an Lehramtsoptionen ist daher nicht gegeben und für etwaige Hochschulvergleiche wären hochschulübergreifende Studien nötig.

Praktische Implikationen

Für das entwickelte Instrument sehen wir Anwendungsmöglichkeiten im Hochschul- und Forschungskontext. So ließe sich an Hochschulen etwa zu Studienbeginn im Lehramt ein Screening des Bedarfs an medienbezogenen Lehrkompetenzen durchführen, um z.B. hochschuldidaktische Angebote passgenauer konzipieren und anbieten zu können. Im weiteren Studienverlauf könnten daraufhin noch ungedeckte Bedarfe im Sinne offener „Lücken“ identifiziert werden, um diese im Sinne einer Kohärenzförderung durch ergänzende Fortbildungsmaßnahmen zu schließen (Dammerer, 2020) und „zur systematischen und aufeinander aufbauenden Kompetenzentwicklung“ (Lorenz & Endberg, 2019, S. 77) beizutragen. Zum Studienende ließe sich mit Hilfe des Instruments schließlich der Erfolg der durch die Hochschule implementierten, medienbezogenen Angebote indirekt evaluieren, um bereits bestehende Angebote modifizieren zu können. Dies kann auch der Prüfung dienen, in welchen Bereichen ggf. Angebote in der zweiten Phase der Lehramtsausbildung erforderlich werden. So sollten auch berufserfahrene Lehrkräfte vom Einsatz des Instruments profitieren, indem Bedarfe im Sinne vertikaler Kohärenz, d.h. über den Professionalisierungsprozess hinweg (Hellmann, 2019), erfasst und mit flankierenden Maßnahmen im Rahmen professioneller Fort- und Weiterbildung gedeckt werden können.

Für die Erforschung von aus studentischer Perspektive selbsteingeschätzten Bedarfen bezüglich medienbezogener Lehrkompetenzen stellt unser Instrument ein ökonomisches und reliables Erhebungsverfahren dar, das sich für verschiedene Fragestellungen anbietet. So ließe sich bei ausreichend großen Stichproben im Rahmen latenter Profil- bzw. Klassenanalysen untersuchen, ob sich bestimmte Subgruppen im Lehramtsstudium hinsichtlich ihres spezifischen Bedarfs unterscheiden (Rubach & Lazarides, 2021). Zudem bietet es einen Mehrwert für die Erforschung von Bezügen der individuellen Bedarfe zu unterschiedlichen Studienelementen bzw. -phasen, da sich durch die differenzierte Erfassung der einzelnen Bedarfsdimensionen aufzeigen lässt, welche konkreten Bedarfe mit bestimmten Aspekten des Studiums zusammenhängen. Aber auch Hochschulvergleiche sowie die längsschnittliche Betrachtung von Bedarfsverläufen könnten im Sinne der Identifizierung, Adaption und Dissemination von good-practice dazu beitragen, hochschulisches Lehren und Lernen dauerhaft zu optimieren.

Literatur

  • Achtziger, A. & Gollwitzer, P. M. (2018). Motivation und Volition im Handlungsverlauf. In J. Heckhausen H. Heckhausen (Hrsg.), Motivation und Handeln (5. Aufl., S. 355–388). Berlin: Springer. https://doi.org/10.1007/978-3-662-53927-9_12 First citation in articleCrossrefGoogle Scholar

  • Backfisch, I. , Lachner, A. , Stürmer, K. & Scheiter, K. (2021). Gelingensbedingungen beim Einsatz digitaler Medien im Unterricht – Kognitive und motivationale Voraussetzungen von Lehrpersonen. In N. BeckT. Bohl S. Meissner (Hrsg.), Forschungs- und Entwicklungsfelder der Lehrerbildung auf dem Prüfstand. Ergebnisse der ersten Förderphase der Qualitätsoffensive Lehrerbildung an der Tübingen School of Education (S. 73–86). Tübingen University Press. First citation in articleGoogle Scholar

  • Blömeke, S. (2000). Medienpädagogische Kompetenz. Theoretische und empirische Fundierung eines zentralen Elements der Lehrerausbildung. München: KoPäd. First citation in articleGoogle Scholar

  • Brown, T. A. (2015). Confirmatory Factor Analysis for Applied Research (2nd ed.). New York: The Guilford Press. First citation in articleGoogle Scholar

  • Bürger, N. , Haselmann, S. , Baumgart, J. , Prinz, G. , Girnat, B. , Meisert, A. , Menthe, J. , Schmidt-Thieme, B. & Wecker, C. (2021). Jenseits von Professionswissen: Eine systematische Überblicksarbeit zu einstellungs- und motivationsbezogenen Einflussfaktoren auf die Nutzung digitaler Technologien im Unterricht. Zeitschrift für Erziehungswissenschaft, 24 (5), 1087–1112. https://doi.org/10.1007/s11618-021-01050-3 First citation in articleCrossrefGoogle Scholar

  • Capparozza, M. (2021). Maßnahmen für die curriculare Verankerung mediendidaktischer Kompetenzen im Lehramtsstudium: Ein Critical Review. In A. Wilmers M. Achenbach C. Keller (Hrsg.), Bildung im digitalen Wandel. Organisationsentwicklung in Bildungseinrichtungen (S. 105–129). Münster: Waxmann. https://dx.doi.org/10.31244/9783830994558.04 First citation in articleCrossrefGoogle Scholar

  • Cress, U. , Diethelm, I. , Eickelmann, B. , Köller, O. , Nickolaus, R. , Pant, H. A. & Reiss, K. (2018). Schule in der digitalen Transformation – Perspektiven der Bildungswissenschaften (acatech DISKUSSION), München. First citation in articleGoogle Scholar

  • Dammerer, J. (2020). Kohärenz in der Lehrerbildung, unterstützt durch informelles Lernen. In A. Forstner-EbhartN. KrakerH. Schwetz (Hrsg.), Impulse für Forschung und Masterarbeiten – Pädagogischen Handlungsfeldern in Primar- und Berufsbildung theoriegeleitet begegnen (S. 135–142). Wien: facultas. First citation in articleGoogle Scholar

  • Deutsche Telekom Stiftung (2019). Schule digital: Unterstützung gefragt. Deutsche Telekom Stiftung. First citation in articleGoogle Scholar

  • Eickelmann, B. , Bos, W. , Gerick, J. & Labusch, A. (2019). Computer- und informationsbezogene Kompetenzen von Schülerinnen und Schülern der 8. Jahrgangsstufe in Deutschland im zweiten internationalen Vergleich. In B. Eickelmann W. Bos J. Gerick F. Goldhammer H. Schaumburg K. Schwippert M. Senkbeil J. Vahrenhold (Hrsg.), ICILS 2018 #Deutschland: Computer- und informationsbezogene Kompetenzen von Schülerinnen und Schülern im zweiten internationalen Vergleich und Kompetenzen im Bereich Computational Thinking (S. 79–112). Münster: Waxmann. First citation in articleGoogle Scholar

  • Eid, M. (2020). Multi-Faceted Constructs in Abnormal Psychology: Implications of the Bifactor S - 1 Model for Individual Clinical Assessment. Journal of Abnormal Child Psychology, 48, 895–900. https://doi.org/10.1007/s10802-020-00624-9 First citation in articleCrossrefGoogle Scholar

  • Eid, M. , Geiser, C. , Koch, T. & Heene, M. (2017). Anomalous results in G-factor models: Explanations and alternatives. Psychological Methods, 22 (3), 541–562. https://doi.org/10.1037/met0000083 First citation in articleCrossrefGoogle Scholar

  • Endberg, M. & Lorenz, R. (2022). Selbsteingeschätzte Kompetenzen von Lehrpersonen der Sekundarstufe I zum Einsatz digitaler Medien im Unterricht im Bundesländervergleich 2021 und im Trend seit 2017. In R. Lorenz S. Yotyodying B. Eickelmann M. Endberg (Hrsg.), Schule digital – der Länderindikator 2021. Lehren und Lernen mit digitalen Medien in der Sekundarstufe I in Deutschland im Bundesländervergleich und im Trend seit 2017 (S. 89–115). Münster: Waxmann. First citation in articleGoogle Scholar

  • Falk, C. F. & Muthukrishna, M. (2021). Parsimony in model selection: Tools for assessing fit propensity. Psychological Methods. Advance online publication. https://doi.org/10.1037/met0000422 First citation in articleCrossrefGoogle Scholar

  • Forschungsgruppe Lehrerbildung Digitaler Campus Bayern (2017). Kernkompetenzen von Lehrkräften für das Unterrichten in einer digitalisierten Welt. Merz Medien + Erziehung, Zeitschrift für Medienpädagogik, 4, 65–74. First citation in articleGoogle Scholar

  • Gerhard, K. , Kaspar, K. , Rüth, M. , Kramer, C. , Jäger-Biela, D. J. & König, J. (2020). Entwicklung eines Testinstruments zur Erfassung technologisch-pädagogischen Wissens von Lehrpersonen. In K. Kaspar M. Becker-Mrotzek S. Hofhues J. König D. Schmeinck (Hrsg.), Bildung, Schule, Digitalisierung (S. 364–369). Münster: Waxmann. First citation in articleGoogle Scholar

  • Gignac, G. E. & Kretzschmar, A. (2017). Evaluating dimensional distinctness with correlated-factor models: Limitations and suggestions. Intelligence, 62, 138–147. https://doi.org/10.1016/j.intell.2017.04.001 First citation in articleCrossrefGoogle Scholar

  • Greiff, S. & Heene, M. (2017). Why Psychological Assessment Needs to Start Worrying About Model Fit. European Journal of Psychological Assessment, 33 (5), 313–317. https://doi.org/10.1027/ 1015 –5759/a000450 First citation in articleLinkGoogle Scholar

  • Haberman, S. J. (2008). When can subscores have value? Journal of Educational and Behavioral Statistics, 33 (2), 204–229. https://doi.org/10.3102/1076998607302636 First citation in articleCrossrefGoogle Scholar

  • Hämäläinen, R. , Nissinen, K. , Mannonen, J. , Lämsä, J. , Leino, K. & Taajamo, M. (2021). Understanding teaching professionals' digital competence: What do PIAAC and TALIS reveal about technology-related skills, attitudes, and knowledge? Computers in Human Behavior, 117, 106672. https://doi.org/10.1016/j.chb.2020.106672 First citation in articleCrossrefGoogle Scholar

  • Heldt, M. , Lorenz, R. & Eickelmann, B. (2022). Förderung der digitalen Kompetenzen von Schülerinnen und Schülern der Sekundarstufe I im Bundesländervergleich und im Trend seit 2017. In R. Lorenz S. Yotyodying B. Eickelmann M. Endberg (Hrsg.), Schule digital – der Länderindikator 2021. Lehren und Lernen mit digitalen Medien in der Sekundarstufe I in Deutschland im Bundesländervergleich und im Trend seit 2017 (S. 117–143). Münster: Waxmann. First citation in articleGoogle Scholar

  • Hellmann, K. (2019). Kohärenz in der Lehrerbildung – Theoretische Konzeptionalisierung. In K. Hellmann J. Kreutz M. Schwichow K. Zaki (Hrsg.), Kohärenz in der Lehrerbildung – Theorien, Modelle und empirische Befunde (S. 9–30). Wiesbaden: Springer VS. https://doi.org/10.1007/978-3-658-23940-4_2 First citation in articleCrossrefGoogle Scholar

  • Henning-Kahmann, J. , Vigerske, S. & Rollett, W. (2019). Ergebnisbericht. FACE-Studierendenbefragung 2018 (Daten der Pädagogischen Hochschule Freiburg). Unveröffentlichter Bericht. Pädagogische Hochschule Freiburg. First citation in articleGoogle Scholar

  • Jorgensen, T. D. , Pornprasertmanit, S. , Schoemann, A. M. & Rosseel, Y. (2018). semTools: Useful tools for structural equation modeling. R package version 0.5–5. Verfügbar unter https://CRAN.R-project.org/package=semTools First citation in articleGoogle Scholar

  • Kline, R. B. (2015). Principles and Practice of Structural Equation Modeling (4th ed.). New York: The Guilford Press. First citation in articleGoogle Scholar

  • Kultusministerkonferenz (2016). Bildung in der digitalen Welt. Strategie der Kultusministerkonferenz. Verfügbar unter https://www.kmk.org/fileadmin/Dateien/pdf/PresseUndAktuelles/2017/Strategie_neu_2017_datum_1.pdf First citation in articleGoogle Scholar

  • Kultusministerkonferenz (2018). Gemeinsame Erklärung der Kultusministerkonferenz und des Verbandes Bildungsmedien e.V. zur Zukunft der Bildungsmedien vom 14.06.2018. Verfügbar unter https://www.kmk.org/fileadmin/Dateien/pdf/Gemeinsame_Erklaerung_KMK_VBM_v._14.06.2018.pdf First citation in articleGoogle Scholar

  • Lachner, A. , Backfisch, I. & Stürmer, K. (2019). A test-based approach of Modeling and Measuring Technological Pedagogical Knowledge. Computers & Education, 142, 103645. https://doi.org/10.1016/j.compedu.2019.103645 First citation in articleCrossrefGoogle Scholar

  • Lorenz, R. & Endberg, M. (2019). Welche professionellen Handlungskompetenzen benötigen Lehrpersonen im Kontext der Digitalisierung in der Schule? Theoretische Diskussion unter Berücksichtigung der Perspektive Lehramtsstudierender. MedienPädagogik: Zeitschrift für Theorie und Praxis der Medienbildung, 61–81. https://doi.org/10.21240/mpaed/00/2019.10.16.X First citation in articleCrossrefGoogle Scholar

  • Lorenz, R. , Endberg, M. & Eickelmann, B. (2019). Medienbezogene Kompetenzen von Lehrpersonen – Empirische Befunde und Perspektiven für die Lehrerausbildung. In T. Ehmke P. Kuhl M. Pietsch (Hrsg.), Lehrer. Bildung. Gestalten. Beiträge zur empirischen Forschung in der Lehrerbildung (S. 142–152). Weinheim: Beltz-Verlag. First citation in articleGoogle Scholar

  • Menold, N. & Bogner, K. (2015). Gestaltung von Ratingskalen in Fragebögen (GESIS Survey Guidelines). Mannheim: GESIS – Leibniz-Institut für Sozialwissenschaften. First citation in articleGoogle Scholar

  • Mishra, P. & Koehler, M. J. (2006). Technological Pedagogical Content Knowledge: A new framework for teacher knowledge. Teachers College Record, 108 (6), 1017–1054. First citation in articleCrossrefGoogle Scholar

  • Petko, D. , Döbeli Honegger, B. & Prasse, D. (2018). Digitale Transformation in Bildung und Schule: Facetten, Entwicklungslinien und Herausforderungen für die Lehrerinnen- und Lehrerbildung. Beiträge zur Lehrerinnen-und Lehrerbildung, 36 (2), 157–174. First citation in articleCrossrefGoogle Scholar

  • Podsakoff, P. M. , MacKenzie, S. B. , Lee, J.-Y. & Podsakoff, N. P. (2003). Common Method Biases in Behavioral Research: A Critical Review of the Literature and Recommended Remedies. Journal of Applied Psychology, 88 (5), 879–903. https://doi.org/10.1037/0021-9010.88.5.879 First citation in articleCrossrefGoogle Scholar

  • Redecker, C. (2017). European Framework for the Digital Competence of Educators: DigCompEdu. Punie, Y. (ed). EUR 28775 EN. Publications Office of the European Union, Luxembourg. First citation in articleGoogle Scholar

  • Reise, S. P. (2012). The Rediscovery of Bifactor Measurement Models, Multivariate Behavioral Research, 47 (5), 667–696. https://doi.org/10.1080/00273171.2012.715555 First citation in articleCrossrefGoogle Scholar

  • Reise, S. P. , Bonifay, W. E. & Haviland, M. G. (2013). Scoring and Modeling Psychological Measures in the Presence of Multidimensionality. Journal of Personality Assessment, 95 (2), 129–140. https://doi.org/10.1080/00223891.2012.725437 First citation in articleCrossrefGoogle Scholar

  • Rhemtulla, M. , Brosseau-Liard, P. E. & Savalei, V. (2012). When Can Categorical Variables Be Treated as Continuous? A Comparison of Robust Continuous and Categorical SEM Estimation Methods Under Suboptimal Conditions. Psychological Methods, 17 (3), 354–373. https://doi.apa.org/doi/10.1037/a0029315 First citation in articleCrossrefGoogle Scholar

  • Robitzsch, A. (2020). Why Ordinal Variables Can (Almost) Always Be Treated as Continuous Variables: Clarifying Assumptions of Robust Continuous and Ordinal Factor Analysis Estimation Methods. Frontiers in Education, 5, 589965. https://doi.org/10.3389/feduc.2020.589965 First citation in articleCrossrefGoogle Scholar

  • Rubach, C. & Lazarides, R. (2019). Eine Skala zur Selbsteinschätzung digitaler Kompetenzen bei Lehramtsstudierenden. Entwicklung eines Instrumentes und die Validierung durch Konstrukte zur Mediennutzung und Werteüberzeugungen zur Nutzung digitaler Medien im Unterricht. Zeitschrift für Bildungsforschung, 9, 345–374. https://doi.org/10.1007/s35834-019-00248-0 First citation in articleCrossrefGoogle Scholar

  • Rubach, C. & Lazarides, R. (2021). Heterogene digitale Kompetenzselbsteinschätzungen bei Lehramtsstudierenden. In Hochschulforum Digitalisierung (Hrsg.), Digitalisierung in Studium und Lehre gemeinsam gestalten. Innovative Formate, Strategien und Netzwerke (S. 453–473). Wiesbaden: Springer VS. https://doi.org/10.1007/978-3-658-32849-8_26 First citation in articleCrossrefGoogle Scholar

  • Sailer, M. , Murböck, J. & Fischer, F. (2017). Digitale Bildung an bayerischen Schulen – Infrastruktur, Konzepte, Lehrerbildung und Unterricht. vbw: München. First citation in articleGoogle Scholar

  • Sailer, M. , Murböck, J. & Fischer, F. (2021). Digital learning in schools: What does it take beyond digital technology? Teaching and Teacher Education, 103, 103346. https://doi.org/10.1016/j.tate.2021.103346 First citation in articleCrossrefGoogle Scholar

  • Sailer, M. , Stadler, M. , Schultz-Pernice, F. , Franke, U. , Schöffmann, C. , Paniotova, V. et al. (2021). Technology-related teaching skills and attitudes: Validation of a scenario-based self-assessment instrument for teachers. Computers in Human Behavior, 115, 106625. https://doi.org/10.1016/j.chb.2020.106625 First citation in articleCrossrefGoogle Scholar

  • Saris, W. E. , Satorra, A. & van der Veld, W. M. (2009). Testing Structural Equation Models or Detection of Misspecifications? Structural Equation Modeling: A Multidisciplinary Journal, 16 (4), 561–582. https://doi.org/10.1080/10705510903203433 First citation in articleCrossrefGoogle Scholar

  • Savalei, V. (2014). Understanding robust corrections in structural equation modeling. Structural Equation Modeling: A Multidisciplinary Journal, 21 (1), 149–160. https://doi.org/10.1080/10705511.2013.824793 First citation in articleCrossrefGoogle Scholar

  • Scheiter, K. (2021). Lernen und Lehren mit digitalen Medien: Eine Standortbestimmung. Zeitschrift für Erziehungswissenschaft, 24, 1039–1060. https://doi.org/10.1007/s11618-021-01047-y First citation in articleCrossrefGoogle Scholar

  • Scheiter, K. & Lachner, A. (2019). DigitalPakt – was nun? Eine Positionierung aus Sicht der Lehr-Lernforschung. Unterrichtswissenschaft, 47 (4), 547–564. https://doi.org/10.1007/s42010-019-00059-2 First citation in articleCrossrefGoogle Scholar

  • Schermelleh-Engel, K. & Gäde, J. C. (2020). Modellbasierte Methoden der Reliabilitätsschätzung. In H. Moosbrugger A. Kelava (Hrsg.), Testtheorie und Fragebogenkonstruktion (S. 335–368). Berlin: Springer. https://doi.org/10.1007/978-3-662-61532-4_15 First citation in articleCrossrefGoogle Scholar

  • Schulze-Vorberg, L. , Krille, C. , Fabriz, S. & Horz, H. (2021). Hinweise und Empfehlungen für die Konzeption von Lehrkräftefortbildungen zu digitalen Medien. Zeitschrift für Erziehungswissenschaft, 24, 1113–1142. https://doi.org/10.1007/s11618-021-01046-z First citation in articleCrossrefGoogle Scholar

  • Senkbeil, M. , Ihme, J. & Schöber, C. (2020). Schulische Medienkompetenzförderung in einer digitalen Welt: Über welche digitalen Kompetenzen verfügen angehende Lehrkräfte? Psychologie in Erziehung und Unterricht, 68 (1), 4–22. https://dx.doi.org/10.2378/peu2020.art12d First citation in articleCrossrefGoogle Scholar

  • van Ackeren, I. , Aufenanger, S. , Eickelmann, B. , Friedrich, S. , Kammerl, R. , Knopf, J. et al. (2019). Digitalisierung in der Lehrerbildung. Herausforderungen, Entwicklungsfelder und Förderung von Gesamtkonzepten. DDS – Die Deutsche Schule, 111 (1), 103–119. First citation in articleCrossrefGoogle Scholar

  • van Vianen, A. E. M. (2018). Person–Environment Fit: A Review of Its Basic Tenets. Annual Review of Organizational Psychology and Organizational Behavior, 5 (1), 75–101. https://doi.org/10.1146/annurev-orgpsych-032117-104702 First citation in articleCrossrefGoogle Scholar

  • West, S. G. , Taylor, A. B. & Wu, W. (2012). Model fit and model selection in structural equation modeling. In R. H. Hoyle (Ed.), Handbook of structural equation modeling (pp. 209–231). New York: The Guilford Press. First citation in articleGoogle Scholar

  • Willermark, S. (2018). Technological Pedagogical and Content Knowledge: A Review of Empirical Studies Published From 2011 to 2016. Journal of Educational Computing Research, 56 (3), 315–343. https://doi.org/10.1177/0735633117713114 First citation in articleCrossrefGoogle Scholar

  • Wolf, E. J. , Harrington, K. M. , Clark, S. L. & Miller, M. W. (2013). Sample Size Requirements for Structural Equation Models: An Evaluation of Power, Bias, and Solution Propriety. Educational and Psychological Measurement, 73 (6) 913–934. https://doi.org/10.1177%2F0013164413495237 First citation in articleCrossrefGoogle Scholar

  • Zinn, B. , Brändle, M. , Pletz, C. & Schaal, S. (2022). Wie schätzen Lehramtsstudierende ihre digitalisierungsbezogenen Kompetenzen ein? Eine hochschul- und fächerübergreifende Studie. die Hochschullehre, 8, 156–171. https://doi.org/10.3278/HSL2211W First citation in articleGoogle Scholar

1 Die Autoren schlagen als Teststärke (power) >≥ .75 sowie >δ i = .10 für korrelierte Residuen (Fehlerkovarianz) bzw. >δ i = .40 für Faktorladungen vor, weisen jedoch darauf hin, dass diese Kriterien eher beliebig gewählt seien: „The choice of the critical deviations and the threshold value for power should be dictated by the standards of the specific discipline.“ (Saris, Satorra & van der Veld, 2009, S. 580).

2 Ein alternatives Schätzverfahren für ordinale Daten (hier: WLSMV), dessen Anwendung zwar ebenso möglich, jedoch nicht zwingend erforderlich war (Robitzsch, 2020), führte zu vergleichbaren Ergebnissen.

3 Fitwerte eignen sich hierfür nur begrenzt. Zum einen zeigen Bifaktormodelle eine erhöhte „fit propensity“ (Falk & Muthukrishna, 2021), d.h. sie weisen in der Regel eine bessere Modellpassung auf. Zum anderen kann die Anwendung der üblichen Gütemaße auf diese Modelle infrage gestellt werden (West, Taylor & Wu, 2012).

4 Ein klassisches (orthogonales) Bifaktormodell mit fünf spezifischen Faktoren und einem Generalfaktor führte zu anomalen Ergebnissen in Form einer negativ geschätzten Varianz sowie dem nahezu vollständigen Fehlen signifikanter Ladungen des Faktors „Realisierung“ (RE).