Skip to main content
Open Access

Kognitive Aktivierung in Befragungen von Schülerinnen und Schülern

Unterscheidung zwischen dem Potential zur kognitiven Aktivierung und der individuellen kognitiven Aktivierung

Published Online:https://doi.org/10.1024/1010-0652/a000359

Abstract

Zusammenfassung. Kognitive Aktivierung gilt als Unterrichtsqualitätsmerkmal, mithilfe dessen spezifische Handlungen und Aufgabenstellungen der Lehrkraft bei den Schülerinnen und Schülern vertiefte Lernprozesse anregen sollen. Die empirischen Befunde zum Zusammenhang zwischen der kognitiven Aktivierung und der Lernleistung sind jedoch bislang nicht eindeutig. Sowohl theoretisch als auch in Befragungen von Lernenden lassen sich zwei Facetten der kognitiven Aktivierung herausarbeiten: Das Potential zur kognitiven Aktivierung kann als Klassenmerkmal aufgefasst werden und beschreibt vor allem beobachtbares Lehrkraftverhalten. Die individuelle kognitive Aktivierung befasst sich hingegen mit dem Erleben des Unterrichts durch die Lernenden und kann somit als individuelles Merkmal verstanden werden. Bisher werden in Befragungen Items zu beiden Facetten eingesetzt, ohne systematisch dazwischen zu unterscheiden. Die vorliegende Arbeit untersucht anhand der Daten aus IGLU 2016 die Bedeutung der Konzeptualisierung und Operationalisierung beider Facetten von kognitiver Aktivierung in Schülerinnen- und Schülerbefragungen für die Prädiktion von fachlichen Leistungen. Mit den Angaben der 3797 Kinder aus 192 vierten Klassen zeigt sich mittels Mehrebenen-CFA, dass sich Items beider Operationalisierungen zwei faktoriell trennbaren Skalen zuordnen lassen. Zudem lassen sich für beide Konstrukte unterschiedliche Zusammenhänge mit der Leseleistung identifizieren. Während das Potential zur kognitiven Aktivierung auf Klassenebene positiv mit der Leseleistung zusammenhängt, findet sich für die individuelle kognitive Aktivierung nur auf Individualebene ein negativer Zusammenhang mit der Leseleistung. Zusammengenommen unterstützen die Ergebnisse die Ausführungen dazu, dass es sich bei dem Potential zur kognitiven Aktivierung und der individuellen kognitiven Aktivierung um zwei konzeptionell unterschiedliche Konstrukte handelt, welche in zukünftigen Arbeiten deutlicher voneinander abgegrenzt werden sollten. Außerdem liefern sie einen Baustein für die Erklärung der nicht eindeutigen Befunde zum Zusammenhang zwischen kognitiver Aktivierung und Lernleistung. Insbesondere Items zur erlebten kognitiven Herausforderung sollten bei Befragungen von Grundschulkindern detaillierter betrachtet und kritisch hinterfragt werden.

Cognitive activation in student questionnaires – Distinguishing between the potential for cognitive activation and individual cognitive activation

Abstract. Cognitive activation is a dimension of teaching quality which focusses on specific actions and tasks by the teacher, which are expected to stimulate intensive learning. Empirical evidence on the connection between cognitive activation and achievement is inconsistent. One possible explanation for this may lie in the conceptualization and operationalization of cognitive activation. Theoretically two different facets of cognitive activation can be identified: The potential for cognitive activation is a classroom characteristic which describes teacher behavior which aims to stimulate cognitive processes in students. Individual cognitive activation focusses on students' experiences of their class and is thus an individual-level variable. Previously used questionnaires have employed items for both facets of cognitive activation without systematically differentiating between them. The present study uses data from the German PIRLS 2016 sample to investigate the connections between the different operationalizations of cognitive activation and primary school students reading achievement. Using data from 3797 fourth-graders from 192 classrooms in a multilevel CFA we find that the items from each operationalization form a distinct factor. Further we find different connections for each operationalization with students' reading achievement: the potential for cognitive activation is positively related to students' reading achievement on the classroom level. Items representing individual cognitive activation only showed a negative connection to students' reading achievement on the individual level. These results show the implications of different operationalizations of the same construct for further analysis. Thereby, our results contribute to the explanation of the hitherto unclear findings regarding the connection between cognitive activation and students' learning. Further, our results stress the need to examen questionnaire items which assess the cognitive challenge experienced by students in more detail.

Theorie

Kognitive Aktivierung stellt ein zentrales Merkmal von Unterrichtsqualität dar (z.B. Klieme, Schümer & Knoll, 2001; Klieme, 2018), das im Rahmen der 1995 durchgeführten internationalen TIMSS-Videostudie erstmals vorgestellt wurde. Auch international haben sich inhaltlich ähnliche Konstrukt (z.B. Instuctional Support, Pianta & Hamre 2009) seither etabliert. In den letzten Jahrzehnten gab es zahlreiche international publizierte Studien zu kognitiver Aktivierung und deren Effekten auf fachliche Leistungen (z.B. Herbert, Fischer & Klieme, 2022; Klieme, Pauli & Reusser, 2009; Praetorius, Klieme, Herbert & Pinger 2018), jedoch lässt sich hierzu bislang weder konzeptionell noch empirisch ein einheitliches Bild zeichnen (Praetorius et al., 2018). Eine mögliche Ursache hierfür könnte in der Konzeptualisierung von kognitiver Aktivierung liegen. Dabei unterscheiden wir zwischen „kognitiver Aktivierung“ als Potential zu kognitiver Aktivierung und individueller kognitiver Aktivierung. Besonders relevant scheint uns diese Unterscheidung bei der Befragung von Schülerinnen und Schülern.

Ziel dieses Artikels ist es aufzuzeigen, wie sich die unterschiedlichen Konzeptualisierungen von „kognitiver Aktivierung“ voneinander unterscheiden und welche Bedeutung entsprechende Operationalisierungen in Befragungen von Schülerinnen und Schülern zur Erklärung fachlicher Lernleistungen haben.

Kognitive Aktivierung

Ein kognitiv aktivierender Unterricht wird als entscheidend für die fachliche Förderung von Schülerinnen und Schülern angesehen (z.B. Klieme, 2018). Praetorius et al. (2018) definieren kognitive Aktivierung als „a condition for students engaging in knowledge construction (e.g., through challenging tasks implemented with adequate pace) and an indication of students' being engaged in higher order thinking (e.g., students providing reasons for their answers)“ (Praetorius et al., 2018, S. 409; ähnlich auch bei Leuders und Holzäpfel, 2011 oder Lipowsky, 2006). In der Literatur lassen sich verschiedene Charakteristika eines kognitiv aktivierenden Unterrichts identifizieren: Ein kognitiv aktivierender Unterricht greift das Vorwissen, die Erfahrungen und Ideen der Lernenden auf und entwickelt diese weiter (Klieme et al., 2009; Klieme, 2018; Leuders & Holzäpfel, 2011). Durch Aufgabenstellungen, Fragen und Gesprächsführungstechniken der Lehrkraft sollen die Lernenden zu vertieften Denkprozessen angeregt werden, beispielsweise indem eine kritische Auseinandersetzung mit den neuen Inhalten oder problemlösendes Denken gefordert wird (Leuders & Holzäpfel, 2011; Lipowsky, 2006; Lipowsky et al., 2009). Zentral ist dabei der inhaltbezogene Dialog, welcher durch das Erklären und Vergleichen unterschiedlicher Vorstellungen kognitive Konflikte provoziert und so Lernprozesse anstoßen soll (Klieme et al., 2009; Lipowsky, 2006; Lipowsky et al., 2009). Auch Anregungen zur Reflektion von Lern- und Denkprozessen werden zu den Merkmalen eines kognitiv aktivierenden Unterrichts gezählt (Klieme, 2018; Lipowsky, 2006).

Aus der eingangs vorgestellten Definition von kognitiver Aktivierung geht auch hervor, dass kognitive Aktivierung als unterrichtsbezogenes Angebot an die Lernenden (condition for students) aufgefasst werden kann und dass ein kognitiv aktivierender Unterricht somit nicht direkt mit kognitiven Prozessen der Lernenden verbunden sein muss, sondern zunächst nur als ein Indikator für diese Prozesse angesehen werden kann. Genaugenommen beschreibt die Definition somit einen Unterricht, der das „Potential zur kognitiven Aktivierung“ hat (Klieme, 2018; Kunter & Trautwein, 2013; Lotz, 2016). Das Potential zur kognitiven Aktivierung ist jedoch nur „eine notwendige Voraussetzung und Teilmenge der KA [kognitiven Aktivierung]“ (Herbert & Schweig, 2021, S. 958). Eine alleinige Fokussierung auf das Potential zur kognitiven Aktivierung wird somit dem Konstrukt der kognitiven Aktivierung nicht gerecht, da dieses die enge Verknüpfung von Lehren und Lernen (z.B. Decristan, Hess, Holzberger & Praetorius, 2020; Gage, 1963) nicht hinreichend in den Blick nimmt. Lernen wird aus konstruktivistischer Perspektive als ein aktiver, intrapsychischer Prozess verstanden, bei dem die Lernenden in Anknüpfung an ihr Vorwissen neues Wissen individuell (re-)konstruieren. Dabei wird auch eine sozialkonstruktivistische Sichtweise berücksichtigt, welche betont, dass die Konstruktion von neuem Wissen auch in der gemeinsamen Aushandlung (Ko-Konstruktion) von Inhalten stattfinden kann (z.B. Philips, 1995; Reusser, 2006; Webb, 2011). Hier wird davon ausgegangen, dass das Lernen am besten gefördert wird, wenn Lernprozesse in der Zone der proximalen Entwicklung der Lernenden stattfinden und somit die Inhalte als herausfordernd, aber nicht überfordernd erlebt werden (Palincsar, 1998; Roth & Lee, 2007; Vygotskij, 1978).

Hieraus resultiert, dass die Handlungen und Aufgaben von Lehrkräften von den Schülerinnen und Schülern als unterschiedlich kognitiv aktivierend erlebt werden, und zwar abhängig von ihren jeweiligen individuellen Lernvoraussetzungen. Da diese Lernvoraussetzungen stark variieren, ist davon auszugehen, dass die Schülerinnen und Schüler auch innerhalb einer Klasse, also bei gleichem Potential zur kognitiven Aktivierung, eine unterschiedliche „individuelle kognitive Aktivierung“ erleben.

Wir unterscheiden daher innerhalb des Konstruktes kognitive Aktivierung zwei Facetten: das Potential zur kognitiven Aktivierung und die individuelle kognitive Aktivierung. Diese Ausdifferenzierung der kognitiven Aktivierung hat sowohl konzeptionelle als auch methodische Konsequenzen, welche sich in Befragungen von Schülerinnen und Schülern zeigen sollten. Trotz verschiedener Vorteile, welche die Befragung von Schülerinnen und Schülern bietet (z.B. relativ geringe Kosten, viel Erfahrung mit der Lehrkraft; Wagner, Göllner, Helmke, Trautwein & Lüdtke, 2013; Lenske & Helmke, 2015) wird ihre Validität häufig kritisch diskutiert, insbesondere, wenn die Beantwortung der Fragen fachliches oder fachdidaktisches Wissen erfordert (vgl. Clausen, 2002; Klieme, Lipowsky, Rakoczy & Drollinger-Vetter, 2010). Allerdings liegen mittlerweile verschiedene Studien vor, welche nahelegen, dass eine valide Erfassung von Unterrichtsqualität durch Ratings von Schülerinnen und Schülern möglich ist (z.B. Fauth, Decristan, Rieser, Klieme & Büttner, 2014a; Stahns, Rieser & Hußmann, 2020; van der Scheer, Bijlsma & Glas, 2019).

Das Potential zu kognitiver Aktivierung in Befragungen von Schülerinnen und Schülern. Der Begriff Potential zur kognitiven Aktivierung wird häufig synonym für kognitive Aktivierung verwendet (Klieme, 2018; Kunter & Trautwein, 2013; Kunter & Voss, 2011). Gemeint ist mit dem Begriff in der Regel das „Potential der Lerngelegenheit, zielgerichtete kognitive Tätigkeiten der Lernenden anzuregen“ (Kunter & Voss, 2011, S. 88). Somit wird die Verknüpfung von Lehren und Lernen zunächst implizit mitgedacht, indem ausschließlich das Lehrkraftverhalten betrachtet wird, welches auf Basis theoretisch-konzeptioneller Annahmen das Potential zur Anregung vertiefter Verstehensprozesse hat (Klieme, 2018; Kunter & Trautwein, 2013; Lotz, 2016).

Für die Operationalisierung von kognitiver Aktivierung in empirischen Arbeiten bietet das Potential zur kognitiven Aktivierung den Vorteil, dass nicht versucht werden muss „in die Köpfe der Schüler_innen zu schauen“ (Herbert & Schweig, 2021, S. 958), sondern auf beobachtbares Verhalten fokussiert werden kann. Es stehen also die an alle Lernenden einer Klasse gerichteten, unterrichtlichen Handlungen und Aufgaben der Lehrkraft im Fokus, ohne Referenz auf die individuell von den Lernenden erlebte Herausforderung oder Anregung des Lernens. Dementsprechend kann von einem zwischen Lehrkräften/Klassen variierenden Merkmal ausgegangen werden (z.B. Marsh et al., 2012). In Befragungen von Schülerinnen und Schülern sollte hieraus eine hohe Übereinstimmung in den Angaben der Individuen in einer Klasse resultieren, welche anschließend auch auf Klassenebene aggregiert und als Unterrichtsqualitätsmerkmal auf dieser Ebene zur Erklärung von fachlichen Lernleistungen und anderen Outcomes herangezogen werden kann. Abweichungen vom Klassenmittelwert gelten in diesem Sinne eher als Fehlervarianz und eine möglichst hohe Übereinstimmung als ein Indikator für die Reliabilität des auf Klassenebene aggregierten Merkmals (Bliese, 2000; Lüdtke, Robitzsch, Trautwein & Kunter, 2009). Damit einher geht auch, dass interindividuelle Unterschiede innerhalb von Klassen selten inhaltlich interpretiert werden (siehe auch Wagner, Trautwein & Göllner, 2018).

In Fragebögen zur Erfassung von kognitiver Aktivierung spiegelt sich diese Perspektive bspw. darin wieder, dass der diskursive Umgang mit verschiedenen Lösungswegen (z.B. Baier et al., 2018: „Im Mathematikunterricht diskutieren wir häufiger über die verschiedenen Lösungswege.“; Werth et al. 2012: „Im Matheunterricht sagt der Mathelehrer öfters nicht gleich, ob eine Antwort oder richtig ist.“), das Einfordern von Erklärungen (z.B. Baier et al. 2018;Fauth et al., 2014a: „Our science teacher wants me to be able to explain my answers.“; Hachfeld & Lazarides, 2020), der Umgang mit Fehlern (Baier et al. 2018: „Im Mathematikunterricht lässt uns der Lehrer/die Lehrerin auch einmal mit unseren eigenen Vermutungen in die Irre gehen, bis wir es selbst merken.“; Pinger, Rakoczy, Besser & Klieme, 2018: „Mein Mathematiklehrer/Meine Mathematiklehrerin geht auf unsere Fehler im Unterricht ein.“; Werth et al., 2012) oder das Überprüfen des Verständnisses (z.B. Fauth et al., 2014a: „Our science teacher asks me what I have understood and what I haven't.“) im Unterricht bzw. durch die Lehrkraft thematisiert werden.

Individuelle kognitive Aktivierung in Befragungen von Schülerinnen und Schülern. Zusätzlich zum Potential zur kognitiven Aktivierung kann auch der Anspruch formuliert werden, Lehren und Lernen expliziter miteinander zu verknüpfen. Mit Bezug auf konstruktivistische Annahmen zum Lernen als individueller und aktiver Konstruktionsprozess (z.B. Philips, 1995; Reusser, 2006; Webb, 2011) lässt sich annehmen, dass ein identisches Verhalten einer Lehrkraft von den Schülerinnen und Schülern abhängig von ihren jeweiligen Lernvoraussetzungen ganz unterschiedlich mit Blick auf eine kognitive Aktivierung interpretiert werden kann. So kann eine im Unterricht gestellte Aufgabe für eine Schülerin mit bereits hohem fachlichem Wissen wenig kognitiv aktivierend sein, während es für einen anderen Schüler mit geringem Vorwissen eine sehr große Herausforderung darstellt, die Aufgabe zu bearbeiten. Greift man die sozialkonstruktivistische Annahme zur Zone der proximalen Entwicklung auf (Palincsar, 1998; Roth & Lee, 2007; Vygotskij, 1978), müssen sich Schülerinnen und Schüler vielmehr individuell angemessen kognitiv herausgefordert fühlen, damit vertiefte Lernprozesse angeregt werden. Konsequenterweise wäre kognitive Aktivierung dann als ein interindividuell variierendes Konstrukt statt ein auf der Klassenebene verortetes Unterrichtsqualitätsmerkmal zu konzeptualisieren (Lüdtke et al., 2009; Marsh et al., 2012). Entsprechend würden vor allem interindividuelle Unterschiede in der kognitiven Aktivierung wiederum Unterschiede in den Lernleistungen erklären können.

Da es für Lehrkräfte oder Beobachtende kaum möglich ist, die individuelle kognitive Aktivierung valide einzuschätzen (Herbert & Schweig, 2021; Lipowsky, 2015), ist es naheliegend, die Lernenden selbst dazu zu befragen.

Während das Potential zur kognitiven Aktivierung über eine Vielzahl verschiedener Merkmale operationalisiert wird, wird die individuelle kognitive Aktivierung vor allem über Items erfasst, bei denen die Lernenden einschätzen sollen, wie herausfordernd sie den Unterricht bzw. die Handlungen und Aufgaben der Lehrkraft erleben (z.B. Baumert et al. (2019): „Unter den Übungsaufgaben sind immer wieder Aufgaben, bei denen man wirklich nachdenken muss.“; Bellens, van Damme, van den Noortgate, Wendt & Nilsen (2019): „Our mathematics teacher asks questions that I have to think about very thoroughly.“; Igler, Ohle-Peters & McElvany, 2019: „Wir Schüler mussten ganz schön denken, bis wir den Text und das Bild verstanden haben.“; Ramm et al., 2012: „Unter den Übungsaufgaben sind immer wieder Aufgaben, bei denen man wirklich nachdenken muss.“; Willems, 2022: „Meine Lehrkraft hat auch Aufgaben gestellt, für deren Lösung ich Zeit zum Nachdenken brauchte.“; weitere Beispiele: Kunter et al. 2005; Lazarides & Buchholz, 2019).

Kognitive Aktivierung und Lernleistung

Kognitiv aktivierendem Unterricht liegt ein konstruktivistisches Lernverständnis zugrunde. Demnach ist Lernen ein aktiver Informationsverarbeitungsprozess, der sowohl die Aufnahme als auch die Verarbeitung und Speicherung von Informationen umfasst und so bestehende kognitive Strukturen weiter ausdifferenziert (Hasselhorn & Gold, 2022). Lernen kann also dann als erfolgreich angesehen werden, wenn die neuen Informationen gut untereinander und mit dem Vorwissen vernetzt im Langzeitgedächtnis gespeichert wurden. Die Vernetzung muss dabei aktiv durch die im Arbeitsgedächtnis ablaufenden Prozesse konstruiert werden (Büttner, 2004; Renkl, 2010), was impliziert, dass die Lernenden Ressourcen wie Motivation, Aufmerksamkeit und Anstrengung in die Informationsverarbeitung investieren (Patrick, Mantzicopoulos & Sears, 2012). Ein kognitiv aktivierender Unterricht kann diese Prozesse zwar nicht erzwingen, jedoch die Schülerinnen und Schüler dazu anregen, beispielweise indem gezielt Bezüge und Widersprüche zum Vorwissen hergestellt, Zusammenhänge zu anderen Themen aufgezeigt oder Lernprozesse reflektiert werden (Klieme et al., 2009; Leuders & Holzäpfel, 2011; Lipowsky et al., 2009). Somit kann angenommen werden, dass ein kognitiv aktivierender Unterricht die Lernenden zu einer vertieften Verarbeitung der Inhalte (Craik & Lockhart, 1972) anregt und so zu höheren Lernleistungen führt.

Empirische Arbeiten, welche den Zusammenhang zwischen Urteilen der Lernenden zur kognitiven Aktivierung und der Lernleistung untersuchen, finden sich bislang vergleichsweise selten. Theoretisch wäre ein positiver Zusammenhang zwischen der kognitiven Aktivierung und der Lernleistung zu erwarten, jedoch zeichnen die Ergebnisse der vorliegenden Studien ein uneinheitliches Bild.

Erwartungskonform finden sich Arbeiten, welche einen positiven Zusammenhang zwischen kognitiver Aktivierung und fachlichen Leistungen aufzeigen. So weisen Decristan, Fauth, Kunter, Büttner und Klieme (2017) für die auf Klassenebene aggregierten Ratings von Drittklässlerinnen und Drittklässlern zur kognitiven Aktivierung einen positiven Zusammenhang mit der Lernleistung nach. Einen positiven Zusammenhang zwischen der individuell berichteten kognitiven Aktivierung und der Lernleistung berichten Schiepe-Tiska, Heine, Lüdtke, Seidel & Prenzel (2016). Auch Lazarides und Buchholz (2019) finden einen positiven Zusammenhang zwischen der Leistung und der kognitiven Aktivierung auf Individualebene.

Es finden sich aber auch Studien, die auf keiner der beiden Ebenen einen Zusammenhang zwischen der kognitiven Aktivierung aus Sicht der Schülerinnen und Schüler und der Lernleistung identifizieren können und zwar sowohl für die Primarstufe (z.B. Fauth et al., 2014a & 2014b) als auch für die Sekundarstufe (z.B. Pinger et al. 2018).

Bisher werden in den Befragungen sowohl Items zum Potential zur kognitiven Aktivierung als auch Items zur individuellen kognitiven Aktivierung eingesetzt, ohne systematisch zwischen beiden Facetten zu trennen. Vor dem Hintergrund der aufgezeigten konzeptionellen Unterschiede liegt jedoch die Vermutung nahe, dass die inkonsistente empirische Befundlage zu kognitiver Aktivierung auch auf die unterschiedlichen Konzeptualisierungen und Operationalisierungen zurückzuführen sein könnte.

Ziel des Beitrags und Forschungsfragen

In den vorangegangenen Ausführungen wurde aufgezeigt, dass sich im Konstrukt kognitive Aktivierung theoretisch zwei Facetten finden: das Potential zur kognitiven Aktivierung und die individuelle kognitive Aktivierung. Diese beiden Facetten können auch in Items zur Befragung von Schülerinnen und Schülern unterschieden werden. Die systematische Trennung und Analyse entsprechender Items wurden unseres Wissens bisher noch nicht vorgenommen. Der vorliegende Beitrag soll diese Lücke schließen und thematisiert daher folgende Fragestellungen:

  1. 1.
    Lassen sich Items zur Erfassung von kognitiver Aktivierung durch Schülerinnen und Schüler nach ihrer Referenz auf das Potential zur kognitiven Aktivierung oder auf die individuelle kognitive Aktivierung empirisch trennen?

Aufgrund der konzeptionellen Unterschiede zwischen beiden Facetten erwarten wir, dass Items zum Potential zur kognitiven Aktivierung und Items zur individuellen kognitiven Aktivierung zwei empirisch voneinander trennbaren Faktoren zugeordnet werden können.

  1. 2.
    Welche Zusammenhänge bestehen zwischen dem Potential zur kognitiven Aktivierung bzw. der individuellen kognitiven Aktivierung und der Lernleistung der Schülerinnen und Schüler?

Aufgrund der konzeptionellen Unterschiede zwischen beiden Facetten erwarten wir, dass das Potential zur kognitiven Aktivierung auf der Klassenebene mit fachlichen Lernleistungen zusammenhängt, während die individuelle kognitive Aktivierung innerhalb von Klassen positiv mit der Lernleistung verknüpft ist.

Methode

Datenerhebung und Stichprobe

Zur Beantwortung der Fragestellungen wurden die Daten aus der Befragung der Schülerinnen und Schüler im Rahmen der Internationalen Grundschulleseuntersuchung 2016 (IGLU 2016) herangezogen (Hußmann et al., 2020). In Deutschland nahmen insgesamt N = 3.959 Schülerinnen und Schüler aus N = 221 vierten Klassen an den Befragungen und Testungen in 2016 teil. Da in der vorliegenden Untersuchung neben den individuellen Schülerinnen- und Schülerurteilen auch Auswertungen auf Klassenebene durchgeführt werden sollen, wurden solche Klassen ausgeschlossen, für die weniger als zehn Schülerinnen und Schüler im Datensatz aufgeführt waren (Bliese, 1998). Entsprechend ergab sich eine Stichprobe von n = 3.797 Schülerinnen und Schülern aus n = 192 Klassen (mittlere Klassengröße n = 19.78). Das Alter der teilnehmenden Kinder lag bei M = 10.34 (SD = 0.51) Jahren. 49.1 Prozent der Schülerinnen und Schüler gaben in der Befragung an, weiblich zu sein. Etwas weniger als ein Drittel der Kinder (28.2%) gab an, zu Hause zumindest manchmal eine andere Sprache als Deutsch zu sprechen.

Instrumente

Für die Erhebungen in Deutschland wurde der internationale Teil des Schülerinnen- und Schülerfragebogens um zehn Items zur kognitiven Aktivierung ergänzt (Hußmann, Wendt, Bos & Rieser, 2020; S. 61). Die Items wurden teilweise von Fauth et al. (2014a) adaptiert (Tabelle 1, Items 1–3, 7, 10) und um fünf daran anknüpfende aber neu formulierte Items ergänzt (Tabelle 1). Die Ergänzung erschien notwendig, da die Originalskala lediglich zwei Items zur individuellen kognitiven Aktivierung enthielt (Tabelle 1, Item 7 und Item 10). Zudem wurden durch die zusätzlichen Items noch weitere potentiell kognitiv aktivierende Gestaltungsmerkmale ergänzt, um so der Breite dieses Konstruktes besser gerecht zu werden (Tabelle 1, Item 4–6). Insgesamt bestand die eingesetzte Skala aus zehn Items (Tabelle 1), von denen sechs Items das Potential zur kognitiven Aktivierung erfassen sollten (Items 1 bis 6; α = .76; Tabelle 1) und vier Items die individuelle kognitive Aktivierung (Items 7 bis 10; α = .65, Tabelle 1) abbildeten. Alle Items wurden auf einer vierstufigen Skala beantwortet (1 „stimme völlig zu“ bis 4 „stimme überhaupt nicht zu“) und so kodiert, dass ein höherer Wert für eine höhere kognitive Aktivierung steht. Fünf der zehn Items wurden bereits in einer vorhergehenden Publikation von Stahns et al. (2020) genutzt, um das Konstrukt kognitive Aktivierung abzubilden, wobei ausschließlich Items gewählt wurden, welche das Potential zur kognitiven Aktivierung im Sinne des Lehrkrafthandelns beschreiben (vgl. Stahns et al., 2020; S. 670).

Tabelle 1 Deskriptive Kennwerte der Items und Skalen zur kognitiven Aktivierung

Neben den Fragebogendaten zur kognitiven Aktivierung wurde im Elternfragebogen der sozioökonomische Hintergrund über den höchsten International Socio-Economic Index of Occupational Status im Haushalt (HISEI, Ganzeboom, de Graaf, Treiman & de Leeuw, 1992) erhoben. Der HISEI kann Werte zwischen 10 und 90 annehmen, wobei ein höherer sozioökonomischer Status mit einem höheren Wert ausgedrückt wird. In der hier genutzten Stichprobe variierten die Werte zwischen 14.21 und 88.96 (M = 54.0; SD = 23.25). Kognitive Grundfähigkeiten wurden durch den Subtest (anschauungsgebundenes) Figurales Denken (N2) des KFT 4–12 + R erfasst. Dabei handelt es sich um ein verbreitetes, standardisiertes Testverfahren. Die Rohwerte wurden, entsprechend dem Manual, in T-Werte transformiert (Heller & Perleth, 2000). Der Mittelwert der Stichprobe lag bei M = 49.72 (SD = 9.65).

Zur Erfassung der Leseleistung wurde der standardisierte Lesekompetenztest aus IGLU 2016 herangezogen. Der Test umfasste Aufgaben verschiedener Formate zu Sach- und literarischen Texten, die in einem Multi-Matrix-Design administriert wurden. Für die Leseleistung aller Teilnehmenden wurden anschließend fünf Plausible Values berechnet, welche auch für die folgenden Auswertungen herangezogen wurden (für eine genauere Beschreibung des Designs, des Tests und der Berechnung der Plausible Values siehe Hußmann, Wendt, Kasper, Bos & Goy, 2017). Aufgrund des Multi-Matrix-Designs wurde zur Bestimmung der Reliabilität des Leseleistungstest der Median für Cronbach's Alpha über alle Testheftversionen herangezogen. Für die deutsche Stichprobe lag der Median bei α = .90 (Foy, Martin, Mullis & Yin, 2017).

Datenanalyse

Zur Beantwortung der ersten Fragestellung wurden Mehrebenen-Konfirmatorische-Faktorenanalysen (ML-CFA) herangezogen. Damit sollte geprüft werden, ob ein Modell mit zwei Faktoren (individuelle kognitive Aktivierung (Item 7–10) und Potential zur kognitiven Aktivierung (Item 1–6); 2–2-Modell) auf Individual- und Klassenebene besser zu den Daten passt als ein Modell mit nur einem Faktor (kognitive Aktivierung (Item 1–10); 1–1-Modell). Da sich gezeigt hat, dass die Wahrnehmungen von Schülerinnen und Schülern auf Klassenebene häufig eine weniger komplexe Struktur aufweisen als auf Individualebene (Wagner, 2008), wurde zusätzlich ein Modell mit einem Faktor auf Klassenebene und zwei Faktoren auf Individualebene (1–2-Modell) spezifiziert. Zur Bewertung der Modelle wurden die RMSEA-, CFT-, TLI und SRMR-Indizes entsprechend den Empfehlungen nach Hu und Bentler (1999) herangezogen. Zum direkten Vergleich der Modelle wurde zusätzlich der Wald Chi2 Test durchgeführt.

Zur Beantwortung der zweiten Fragestellung (Zusammenhänge zwischen den verschiedenen Operationalisierungen von kognitiver Aktivierung und der Leseleistung) wurden doppelt-latente Mehrebenen-Regressionsanalysen berechnet (Lüdtke, Marsh, Robitzsch & Trautwein, 2011). Dazu wurden drei Modelle geschätzt: Zuerst wurde nur der Zusammenhang des Potentials zur kognitiven Aktivierung (Prädiktor) mit der Leseleistung (abhängige Variable) geschätzt. Im zweiten Modell wurde dann nur die individuelle kognitive Aktivierung als Prädiktor für die Leseleistung eingesetzt. Zuletzt wurden beide Skalen der kognitiven Aktivierung gleichzeitig als Prädiktoren genutzt. Die Skalen zur kognitiven Aktivierung wurden immer als latente Prädiktoren auf beiden Ebenen eingesetzt. In allen Modellen wurde für Geschlecht, Mehrsprachigkeit, kognitive Grundfähigkeiten (KFT) und sozioökonomischen Hintergrund (HISEI) der Kinder auf beiden Analyse-Ebenen kontrolliert. Alle Kovariaten wurden als manifeste Variablen auf Individualebene am groupmean und auf Klassenebene am grandmean zentriert (vgl. Enders & Tofighi, 2007) eingesetzt.

Der Anteil fehlender Werte in den Items zur kognitiven Aktivierung variierte zwischen 15.5% und 20.7% (vgl. Tabelle 1). Der Anteil fehlender Werte in den Kovariaten schwankte zwischen 0.7% (KFT) und 12.0% (Familiensprache). Den höchsten Anteil fehlender Werte wies mit 35.0% der HISEI auf, da dieser Index aus Angaben aus dem Elternfragebogen mit einer Rücklaufquote von 72% gebildet wurde (Hußmann et al., 2017). Fehlende Werte wurden mithilfe des Full Information Maximum Likelihood Schätzers (FIML; Arbuckle, 1996) geschätzt. Alle Analysen wurden in MPlus (Version 8, Muthén und Muthén, 1998–2019) durchgeführt.

Ergebnisse

Deskriptive Statistiken

In Tabelle 1 finden sich die deskriptiven Kennwerte für alle Items und Skalen zur kognitiven Aktivierung. Aus den Mittelwerten wird deutlich, dass die Schülerinnen und Schüler die kognitive Aktivierung in ihrem Deutschunterricht insgesamt positiv bewerteten. Die Items, welche der individuellen kognitiven Aktivierung zugeordnet werden können, wurden dabei tendenziell etwas weniger positiv beurteilt als jene Items, welche das Potential zur kognitiven Aktivierung widerspiegeln.

Alle drei Skalen (kognitive Aktivierung mit 10 Items, Potential zur kognitiven Aktivierung und individuellen kognitiven Aktivierung) wiesen auf Individualebene eine mindestens zufriedenstellende interne Konsistenz auf (α ≥ .65).

Für die Items zur kognitiven Aktivierung waren sowohl ICC1 als auch ICC2 als gering einzuschätzen. Lediglich 2% bis 7% der Varianz in den Items (6% pro Teilskala) waren auf Unterschiede zwischen den Klassen zurückzuführen (ICC1). Die Reliabilität der Klassenmittelwerte der einzelnen Items variierte zwischen .29 ≥ ICC2 ≤ .53 und lag damit ebenfalls unter dem Richtwert von mindestens .70 (LeBreton & Senter, 2008). Als Maß für die Übereinstimmung der Ratings der Schülerinnen und Schüler innerhalb von Klassen kann zusätzlich die ADm (average absolute deviation; Burke, Finkelstein & Dusig, 1999) herangezogen werden. Nach Burke und Dunlap (2002) kann von einer guten Übereinstimmung gesprochen werden, wenn der ADm Wert kleiner ist als ADm = A/6 (A = Anzahl der Antwortkategorien; hier: ADm = 4/6 = 0.66). Bezieht man zusätzlich noch die Gruppengröße (hier: n = 19.78) mit ein, empfehlen Burke und Dunlap (2002) einen Wert kleiner als ADm < 0.73 als gute Übereinstimmung zu werten (vgl. auch Lüdtke, Trautwein, Kunter & Baumert, 2006; LeBreton & Senter, 2008). Wie aus Tabelle 1 hervorgeht (ADmmin = 0.46; ADmmax = 0.61) kann demnach von einer guten Übereinstimmung zwischen den Schülerinnen und Schülern ausgegangen werden.

In Tabelle 2 sind die deskriptiven Kennwerte der Skalen zur kognitiven Aktivierung und der Kovariaten gemeinsam mit den Korrelationen zwischen den Variablen auf Individualebene sowie auf Klassenebene abgebildet. Die Korrelation zwischen der Skala zum Potential zur kognitiven Aktivierung und der individuellen kognitiven Aktivierung war auf beiden Ebenen zwar signifikant, lag jedoch eher im mittleren Bereich (rIndividuell = .39*; rKlasse = .25*), was bereits auf eine Trennbarkeit der Skalen hindeutet.

Tabelle 2 Deskriptive Kennwerte der verwendeten Skalen/Indikatoren und Interkorrelationen auf Individualebene und auf Klassenebene

Fragestellung 1

Um die erste Fragestellung zur Trennbarkeit der Items hinsichtlich des Potentials zur kognitiven Aktivierung und der erlebten individuellen kognitiven Aktivierung zu prüfen, wurde zunächst ein ML-CFA Modell mit zwei Faktoren auf beiden Ebenen (2–2-Modell) geschätzt. Die Ergebnisse zeigten jedoch einen nicht zufriedenstellenden Modell-Fit (vgl. Tabelle 3). Zwei Items luden auf der Klassenebene nicht auf den ihnen zugeordneten Faktor. Dabei handelte es sich um die Items 6 (Potential zur kognitiven Aktivierung; λ (Klasse) = –.03; SE = .47) und 8 (individuelle kognitive Aktivierung; λ (Klasse) = .19; SE = .28). Die Analyse wurde daher unter Ausschluss dieser Items wiederholt. Der Faktor Potential zur kognitiven Aktivierung wurde nun durch fünf Items (M = 3.27; SD = 0.59; α = .72; ADm = 0.52) beschrieben, während der Faktor individuelle kognitive Aktivierung nun drei Items (M = 2.64; SD = 0.72; α = .69; ADm = 0.58) umfasste. Die fünf Items, welche den Faktor Potential zur kognitiven Aktivierung bilden, entsprechen den von Stahns et al. (2020) verwendeten Items. Durch den Ausschluss der zwei Items verbesserte sich der Modell-Fit und konnte nun als akzeptabel beschrieben werden (vgl. Tabelle 3). Auch luden in diesem Modell alle Items signifikant auf den jeweiligen Faktor (λ (Individuell) ≥ .54; λ (Klasse) ≥ .68).

Tabelle 3 Fit-Indizes der Mehrebenen-Konfirmatorischen-Faktorenanalysen

Die ML-CFA mit je zwei Faktoren (2–2-Modell) auf beiden Ebenen wies zudem eine bessere Passung zu den Daten auf als die Lösung mit je einem Faktor auf beiden bzw. auf Klassenebene (vgl. Tabelle 3). Die Betrachtung der absoluten Fit-Indizes (RMSEA, CFI, TLI, SRMR) ergab für das 2–2-Modell insgesamt eine akzeptable bis gute Passung, während die Werte für das 1–1-Modell deutlich von den empfohlenen Cut-Off Werten abwichen (Hu & Bentler, 1999). Das 1–2-Modell mit einem Faktor auf Klassenebene und zwei Faktoren auf Individualebene passte deutlich besser zu den Daten als das 1–1-Modell. Vergleicht man das 1–2-Modell mit dem 2–2-Modell, deuten die absoluten Fit-Indizes auf eine etwas bessere Passung des 2–2-Modells hin. Auch die relativen Indizes (AIC und BIC) sprechen tendenziell eher für das 2–2-Modell. Zusätzlich untermauert wird dieser Befund auch durch die Ergebnisse der Wald Chi2-Tests, welche auf eine signifikant bessere Passung des 2–2-Modells im Vergleich zum 1–1- und 1–2-Modell hindeutet.

Einen zusätzlichen Hinweis auf die empirische Trennbarkeit der Skalen liefern die Korrelationen der beiden latenten Faktoren. Auf Individualebene korrelierten diese signifikant mit r = .42 (p < .001). Auf Klassenebene zeigte sich keine signifikante Korrelation (r = –.09; p = .726).

Entsprechend unterstützten die Ergebnisse der ML-CFA unsere Hypothese: Es scheint nicht nur theoretisch, sondern auch empirisch angemessen, zwischen den zwei Skalen „individuelle kognitive Aktivierung“ und „Potential zur kognitiven Aktivierung“ zu unterscheiden.

Fragestellung 2

Die zweite Fragestellung bezieht sich auf den Zusammenhang zwischen den beiden Skalen zur kognitiven Aktivierung und der Leseleistung der Schülerinnen und Schüler unter Einbezug von Kovariaten auf beiden Ebenen. Für die fünf Items zum Potential zur kognitiven Aktivierung wurde diese Analyse bereits bei Stahns et al. (2020) publiziert, ohne jedoch die kognitiven Grundfähigkeiten als Kovariate zu berücksichtigen. Dort wird ein signifikant positiver Zusammenhang auf der Klassenebene berichtet (β = .31*; SE = 0.13). Auf Individualebene konnten Stahns et al. (2020) hingegen keinen bedeutsamen Zusammenhang identifizieren (β = .03; SE = 0.02; Stahns et al., 2020; S. 675). Die Wiederholung der Analysen unter Einbezug der kognitiven Grundfähigkeiten als Kovariate kam zu einem sehr ähnlichen Ergebnis (vgl. Tabelle 4, Modell 1): Auf Klassenebene fand sich erneut ein signifikant positiver Zusammenhang, während der Zusammenhang zwischen dem Potential zur kognitiven Aktivierung und der Leseleistung auf Individualebene nicht signifikant wurde.

Tabelle 4 Doppelt-latente-Mehrebenen-Regressionsanalyse zur Prädiktion der Leseleistung durch das Potential zur kognitiven Aktivierung und die individuelle kognitive Aktivierung

Für die individuelle kognitive Aktivierung ergab sich ein gegensätzliches Befundmuster (vgl. Tabelle 4, Modell 2): Auf Individualebene zeigte sich ein signifikant negativer Zusammenhang mit der Leseleistung, während sich auf Klassenebene kein bedeutsamer Zusammenhang ergab.

Wurden das Potential zur kognitiven Aktivierung und die individuelle kognitive Aktivierung gleichzeitig als Prädiktoren in Analyse aufgenommen (vgl. Tabelle 4, Modell 3), ergaben sich auf Klassenebene für beide Konstrukte inhaltlich identische Zusammenhänge wie in den vorangegangenen Analysen. Auf Individualebene zeigte sich für das Potential zur kognitiven Aktivierung ein signifikant positiver Zusammenhang und für die individuelle kognitive Aktivierung weiterhin ein negativer Zusammenhang.

Die Ergebnisse bestätigen unsere Erwartungen somit nur teilweise. Während die positiven Zusammenhänge zwischen dem Potential zur kognitiven Aktivierung und der Leseleistung der Theorie entsprechen, gilt dies nicht für den negativen Zusammenhang zwischen der individuellen kognitiven Aktivierung und der Leseleistung.

Diskussion

Kognitive Aktivierung gilt als ein Unterrichtsqualitätsmerkmal, wobei spezifische Handlungen und Aufgabenstellungen der Lehrkraft bei den Schülerinnen und Schülern vertiefte Lernprozesse anregen sollen. Das Lernen selbst fußt auf einem konstruktivistischen Verständnis, wonach die Schülerinnen und Schüler Wissen individuell und aktiv unter Einbezug ihrer Lernvoraussetzungen konstruieren. Dabei lassen sich konzeptionell unterschiedliche Grade der Explizitheit in der Verknüpfung von Lehren und Lernen ausmachen: Während beim Potential zur kognitiven Aktivierung implizit geschlussfolgert wird, dass das Lernen angeregt wird, bezieht sich die individuelle kognitive Aktivierung expliziter auf die von den Lernenden erlebte kognitive Herausforderung. Die vorliegende Arbeit untersuchte die Bedeutung der Konzeptualisierung und Operationalisierung beider Facetten von kognitiver Aktivierung in Schülerinnen- und Schülerbefragungen für die Prädiktion von fachlichen Leistungen von Grundschulkindern. Damit wurde das Ziel verfolgt, einen Beitrag zur Erklärung der bislang inkonsistenten empirischen Befundlage zu kognitiver Aktivierung zu leisten (vgl. Praetorius et al., 2018). Dafür wurden im empirischen Teil der Arbeit die Trennbarkeit beider Operationalisierungen sowie die jeweiligen Zusammenhänge mit der Lernleistung geprüft. Zusammengenommen unterstützen die Ergebnisse die Ausführungen dazu, dass es sich bei dem Potential zur kognitiven Aktivierung und der individuellen kognitiven Aktivierung um zwei konzeptionell verschiedene Konstrukte handelt, welche in zukünftigen Arbeiten deutlicher voneinander abgegrenzt werden sollten.

Empirische Ergebnisse zur Unterscheidung zwischen dem Potential zur kognitiven Aktivierung und der individuellen kognitiven Aktivierung

Die Ergebnisse der ML-CFA bestätigen die Hypothese, dass es sich beim Potential zur kognitiven Aktivierung und der individuellen kognitiven Aktivierung um zwei empirisch trennbare Faktoren handelt. Auf Basis der Ergebnisse lässt sich somit auch schlussfolgern, dass ein Potential zur kognitiven Aktivierung nicht immer mit einer entsprechenden individuellen kognitiven Aktivierung einhergeht und eine systematische Unterscheidung sowohl theoretisch als auch empirisch sinnvoll erscheint (vgl. auch Pauli, 2020).

Zu diskutieren sind in diesem Zusammenhang die geringen ICC1- und ICC2-Kennwerte, insbesondere für die Items zum Potential zur kognitiven Aktivierung, da sich diese in der Regel auf Merkmale auf Klassenebene beziehen (Marsh et al., 2012). In der vorliegenden Arbeit variierten die ICC1 der Items zwischen ICC1 = .02 und ICC1 = .07. Damit liegen die ICC1-Werte deutlich unter denjenigen, die in anderen Studien berichtet werden (in der Regel zwischen ICC1 = .10 und ICC1 = .15; z.B. Fauth et al., 2014a; Hachfeld & Lazarides, 2020; Holzberger, Philipp & Kunter, 2013; Jaeckel, Göllner & Trautwein, 2020; Praetorius, Lauermann, Klassen, Dickhäuser, Janke & Dresel, 2017). Allerdings sollte dabei bedacht werden, dass sich in der vorliegenden Studie die Fragen allgemein auf den Deutschunterricht bezogen, während in der ursprünglichen Studie von Fauth et al. (2014a) ein zeitlich enger begrenzter Rahmen (eine Unterrichtseinheit) die Referenz war. Insbesondere für Grundschülerinnen und Grundschüler könnte es herausfordernd sein, die Variabilität des Merkmals über die Zeit hinweg angemessen zu berücksichtigen (z.B. Kloss, 2014; Lenske & Helmke, 2015), so dass die einzelnen Urteile letztlich nur in geringem Maße übereinstimmen.

Zusammenhänge zwischen Facetten kognitiver Aktivierung und der Leseleistung

Als zweites wurde der Zusammenhang zwischen dem Potential zur kognitiven Aktivierung bzw. der individuellen kognitiven Aktivierung und der Leseleistung untersucht. Für das Potential zur kognitiven Aktivierung wurde ein positiver Zusammenhang mit den Leseleistungen auf Klassenebene angenommen. Die Ergebnisse der Mehrebenen-Regressionsanalysen bestätigen diese Erwartung. Dieses Ergebnis ist anschlussfähig an die konzeptionelle Verortung des Potentials zur kognitiven Aktivierung als Unterrichtsqualitätsdimension und damit als zwischen Klassen variierendes Merkmal (vgl. Marsh et al., 2012). Wurde zusätzlich zum Potential zur kognitiven Aktivierung auch die individuelle kognitive Aktivierung in das Modell eingeführt, blieb der Zusammenhang auf Klassenebene bestehen. Auf Individualebene zeigte sich ein signifikanter positiver Zusammenhang. Es wäre jedoch denkbar, dass dieses Ergebnis auf einem Suppressoreffekt beruht. Bei einem Suppressoreffekt wird durch die Einführung weiterer, mit dem Prädiktor korrelierter Variablen in ein Modell irrelevante Varianz für die Erklärung des Kriteriums gebunden, so dass der partielle Zusammenhang des Prädiktors mit dem Kriterium ansteigt (vgl. Wirtz & Nachtigall, 2012). In unserem Fall würde dies bedeuten, dass auf Individualebene durch die Einführung der individuellen kognitiven Aktivierung für deren gemeinsame Varianz mit dem Potential zur kognitiven Aktivierung kontrolliert wurde. Der für die Erklärung der Leistung irrelevante Anteil der gemeinsamen Varianz könnte dadurch unterdrückt worden sein, sodass der kontrollierte Zusammenhang zwischen dem Potential zur kognitiven Aktivierung und der Leistung ansteigt.

Für die individuelle kognitive Aktivierung wurde ein positiver Zusammenhang mit den Leseleistungen innerhalb von Klassen angenommen. Erwartungswidrig resultierte jedoch ein negativer Zusammenhang auf Individualebene, sodass Schülerinnen und Schüler, die eine höhere individuelle kognitive Aktivierung berichteten, eine geringere Leseleistung erbrachten. Wie erwartet konnte auf Klassenebene kein signifikanter Zusammenhang festgestellt werden. Wurden beide Facetten der kognitiven Aktivierung gleichzeitig als Prädiktoren in das Modell eingeführt, änderten sich die Ergebnisse für die individuelle kognitive Aktivierung nur geringfügig. Ein Grund für den negativen Zusammenhang zwischen der individuellen kognitiven Aktivierung und der Leseleistung könnte in der Operationalisierung der verwendeten Items zur individuellen kognitiven Aktivierung liegen, die nach der individuell erlebten Herausforderung im Unterricht fragen. Es kann beispielsweise angenommen werden, dass ein Kind, das sich optimal kognitiv aktiviert fühlt, dem Item „Mein Lehrer stellt uns Aufgaben, über die ich ganz genau nachdenken muss“ zustimmt. Dies könnte aber genauso für ein Kind gelten, das sich überfordert fühlt. Dieses Kind müsste auch genau über die Aufgaben nachdenken, könnte sie aber, im Gegensatz zum ersten Kind, am Ende nicht lösen. Trotzdem würde die Aussage auf dieses überforderte Kind zutreffen. Um eine mögliche Konfundierung von individueller kognitiver Aktivierung mit Überforderung zu prüfen, wurden ergänzende Analysen mit der Skala „Überforderung“ (3 Items, α = .81; ICC1 = .05; ICC2 = .49; Hußmann et al., 2020; S. 72) vorgenommen. Zunächst wurden die manifesten Korrelationen zwischen der individuellen kognitiven Aktivierung und der berichteten Überforderung auf Individual- und auf Klassenebene berechnet. Auf beiden Ebenen fanden sich statistisch bedeutsame Zusammenhänge (rIndividuell = .35**; rKlasse = .53**). In einem zweiten Schritt wurde die ML-Regressionsanalyse auf beiden Ebenen um den manifesten Prädiktor „Überforderung“ ergänzt. Es zeigte sich, dass die Überforderung auf beiden Ebenen negativ mit der Leistung zusammenhing (β individuell = –.29*; SE = 0.02; β Klasse = –.25*; SE = 0.07), also eine höhere Überforderung mit einer geringeren Leistung einherging. Der Zusammenhang zwischen der individuellen kognitiven Aktivierung und der Leseleistung nahm auf beiden Ebenen ab, blieb jedoch negativ und auf Individualebene signifikant (β individuell = –.24*; SE = 0.02; β Klasse = –.03; SE = 0.08). Auf Individualebene korrelierten die Überforderung und die latent gebildete individuelle kognitive Aktivierung mit r = .39* miteinander und auf Klassenebene mit r = .67*. Entsprechend scheint der negative Zusammenhang nicht ausschließlich auf den Angaben der Kinder zur Überforderung beruhen. Eine mögliche Erklärung könnte darin bestehen, dass das Anspruchsniveau des Unterrichts eher an den leistungsschwächeren Schülerinnen und Schülern ausgerichtet wird, wodurch leistungsstärkere Kinder eine geringere Herausforderung erleben (vgl. Rieser, Stahns, Walzebug & Wendt, 2016; Igler et al., 2019). Entsprechend würden sie eine geringe individuelle kognitive Aktivierung berichten, aber, aufgrund der für sie relativ einfachen Inhalte, trotzdem eine hohe Leistung erbringen. Dies würde auf eine mangelnde Anpassung des Unterrichts an die individuellen Lernbedarfe hindeuten. Zudem sollten in weiteren Studien auch nicht-kognitive Merkmale der Lernenden (bspw. das Interesse) berücksichtigt werden, da diese sich bereits als prädiktiv für die erlebte kognitive Aktivierung erwiesen haben (z.B. Igler et al., 2019; Willems, 2022).

Die Ergebnisse zur individuellen kognitiven Aktivierung illustrieren zudem die Herausforderung bei deren Operationalisierung. Allem Anschein nach ist es mit den in IGLU 2016 genutzten Items nicht optimal gelungen, die individuelle kognitive Aktivierung im theoretisch intendierten Sinne zu erfassen. Eine mögliche Lösung dieses Problems könnte in einer Überarbeitung der Itemformulierungen bestehen. So könnte versucht werden, nicht nur nach der erlebten Herausforderung zu fragen, sondern gleichzeitig zu erfassen, ob die Aufgaben trotz der Herausforderung auch bewältigt werden konnten, wie dies teilweise auch bereits umgesetzt wird (z.B.: „Wir Schüler mussten ganz schön denken, bis wir den Text und das Bild verstanden haben.“; Igler et al., 2019). So könnte die erlebte Herausforderung durch die Aufgabe im Sinne der Zone der proximalen Entwicklung angemessener operationalisiert werden.

Die präsentierten Befunde zum Zusammenhang der Skalen zur kognitiven Aktivierung und der Leistung eröffnen zudem einen neuen Blickwinkel auf mögliche Ursachen für den theoretisch erwartbaren, aber empirisch inkonsistenten Zusammenhang zwischen kognitiver Aktivierung und Lernleistung (zusammenfassend Praetorius et al., 2018). Werden in den Skalen zur kognitiven Aktivierung Items zum Potential zur kognitiven Aktivierung und solche zur individuellen kognitiven Aktivierung vermischt, wäre es denkbar, dass sich durch die Vermischung der beiden Konstrukte die entgegengerichteten Zusammenhängen gegenseitig aufheben. Besonders relevant erscheint diese Überlegung, da sich die Problematik der Vermischung der beiden Skalen erst in der ML-CFA klar zeigte. Diese Überlegung bedarf jedoch einer genaueren Prüfung, auch mit weiteren Datensätzen. Vor dem Hintergrund der präsentierten Ergebnisse wäre es in zukünftigen Arbeiten zur kognitiven Aktivierung wünschenswert, bei Fragebögen für Schülerinnen und Schüler und der anschließenden Datenauswertung diese konzeptionelle Unterscheidung eingehender zu berücksichtigen, um die bessere theoretische Einordnung und Interpretation der Befunde zu ermöglichen.

Limitationen

Für die vorliegende Studie wurden die Daten aus IGLU 2016, also einem internationalen Large Scale Assessment mit einer beschränkten Itemzahl genutzt, sodass jede Facette von CA sich nur durch recht wenige Items abbilden ließ. Durch den zusätzlichen Ausschluss von zwei Items in der CFA wurde die inhaltliche Breite weiter eingeschränkt. Einige Aspekte, wie beispielsweise das Organisieren und Strukturieren neuer Inhalte oder das Erzeugen kognitiver Konflikte, wurden somit nicht ausreichend berücksichtigt. In zukünftigen Studien bedarf es daher einer breiteren Erfassung der Facetten, um diese valide abzubilden und die hier vorgeschlagene Trennung weiter empirisch zu prüfen.

Weiterhin ist zu berücksichtigen, dass unsere Arbeit auf den Ratings von Grundschülerinnen und -schülern basiert, deren Reliabilität und Validität häufig angezweifelt wird. Dazu ist jedoch anzumerken, dass die Validität und Reliabilität von Unterrichtsmerkmalen durch Schülerratings umfassend diskutiert wurde (Clausen, 2002; Klieme et al., 2010; Lenske & Helmke, 2015; Wagner et al., 2013). Zusammenfassend lässt sich davon ausgehen, dass Grundschulkinder valide und reliable Urteile abgeben können, jedoch sehr sorgsam auf die Formulierungen der Items, insbesondere auf deren Komplexität, geachtet werden muss (z.B. Fauth et al., 2014a; Stahns et al., 2020; Lenske & Helmke, 2015; van der Scheer, Bijlsma & Glas, 2019). Die sprachliche Komplexität der zwei ausgeschlossenen Items könnte auch die Ursache für den zunächst ungenügenden Fit des Modells mit den ursprünglichen zehn Items sein.

Implikationen einer Unterscheidung zwischen dem Potential zur kognitiven Aktivierung und individueller kognitiver Aktivierung für zukünftige Forschung

Die vorliegende Arbeit bietet sowohl konzeptionelle Argumente als auch empirische Hinweise zur Unterscheidung zwischen dem Potential zur kognitiven Aktivierung und der individuellen kognitiven Aktivierung. Dies schließt sich an weitere konzeptionelle Überlegungen zur Erfassung auch von anderen Dimensionen der Unterrichtsqualität durch Befragungen von Schülerinnen und Schülern an. So arbeiteten Fauth, Göllner, Lenske, Praetorius und Wagner (2020) am Beispiel der Dimension Klassenführung heraus, dass sich Items entweder auf das Verhalten der Lehrkraft, das Verhalten der Schülerinnen und Schüler selbst oder auch die Interaktion von Lehrkraft und Schülerinnen und Schüler beziehen können. In der Studie von Göllner et al. (2020) wurde diese theoretische Unterscheidung aufgegriffen und auf Ratings zur Klassenführung von Schülerinnen und Schülern der Sekundarstufe angewendet. Items, welche ausschließlich das Lehrkraftverhalten erfassen, und Items, welche das Verhalten der Schülerinnen und Schüler miteinbeziehen, bildeten zwei empirisch trennbare Faktoren. Bei einem Fokus auf das Lehrkraftverhalten fanden sich jedoch keine Zusammenhänge mit der Leistung, während sich für das Verhalten der Schülerinnen und Schüler signifikante Zusammenhänge mit der Leistung ergaben. Auch hier scheinen also durch die Operationalisierung unterschiedliche Aspekte desselben Konstruktes erfasst zu werden.

Grundsätzlich ist hiermit auch die Frage nach der Verortung der durch Schülerinnen und Schüler erfassten Unterrichtsqualität in Modellen zur Wirkung von Unterricht, wie die oft herangezogenen Angebots-Nutzungs-Modelle (Helmke, 2017; Vieluf, Praetorius, Rakoczy, Kleinknecht & Pietsch, 2020), verbunden. Angebots-Nutzungs-Modelle beschreiben Unterricht als ein durch die Lehrkraft gestaltetes Angebot, welches durch die Lernenden genutzt werden muss (i.S. der Ausführung von Lernaktivitäten), um letztlich die intendierten Wirkungen (z.B. Wissenszuwachs) zu erzielen. Aktuellere Konzeptionen betonen dabei die Wechselseitigkeit von Angebot und Nutzung und somit auch die Bedeutung der Schülerinnen und Schüler, die maßgeblich zur Gestaltung des Unterrichts mit beitragen (Vieluf et al., 2020). Dieses Wechselspiel kann grundsätzlich auch auf Klassenebene abgebildet werden (z.B. Göllner, Fauth, Lenske, Praetorius & Wagner, 2020), wenn sich die Items auf das Verhalten von Lehrkräften oder Schülerinnen und Schülerverhalten mit Referenz auf die gesamte Klasse beziehen („In math class, the lesson is often disturbed“). Wenn es aber um das individuelle Verhalten oder Erleben geht, ist die Verortung in Angebots-Nutzungs-Modellen weniger eindeutig. Am ehesten ließen sich diese, wie bei der individuell erlebten kognitiven Aktivierung, vermutlich der Wahrnehmung und Interpretation des Angebots zuordnen, also einem Prozess zwischen dem Angebot und dessen Nutzung.

Schließlich führen die Überlegungen der vorliegenden Studie zu einer weiterführenden Diskussion von Adaptivität und dem Verhältnis von kognitiver Aktivierung und Adaptivität. Entgegen der theoretischen Erwägungen, welche das Potential zur kognitiven Aktivierung als ein originäres Klassenmerkmal konzeptualisieren, zeigte sich, dass die Items dieses Konstruktes nur sehr wenig Varianz auf Klassenebene aufweisen. Varianz innerhalb von Klassen wird bei originären Klassenmerkmalen häufig als mangelnde Reliabilität interpretiert (Lüdtke et al., 2006). Dieser Interpretation liegt jedoch ein Verständnis von Unterricht zugrunde, nachdem alle Schülerinnen und Schüler denselben Unterricht erhalten, wie es beispielsweise auch in Angebots-Nutzungs-Modellen suggeriert wird (z.B. Seidel, 2014). Abweichend von diesem Verständnis kann aber auch von einem differenziellen Angebot ausgegangen werden, wie beispielsweise Annahmen zu „adaptive teaching“ (Parsons et al., 2018) oder zum „differential teacher treatment“ (Bohlmann & Weinstein, 2013) nahelegen. Dabei wird angenommen, dass die individuellen Lernvoraussetzungen der Schülerinnen und Schüler im Unterricht aufgegriffen werden und jedem Lernenden ein darauf abgestimmtes Unterrichtsangebot unterbreitet wird. Legt man ein solches Verständnis von Unterricht zugrunde, ist zu erwarten, dass sich die Lehrkraft den Schülerinnen und Schülern einer Klasse gegenüber unterschiedlich verhält. Dementsprechend würden die Antworten der Lernenden auf Items zum Potential zur kognitiven Aktivierung auch innerhalb von Klassen stark variieren, ohne dass dies ein Hinweis auf mangelnde Reliabilität wäre. In eine ähnliche Richtung weisen auch die Befunde von Schweig (2016), bei denen die Höhe der Übereinstimmung von Schülerinnen und Schülern innerhalb von Klassen unter anderem mit Merkmalen der Unterrichtsgestaltung (wie der Binnendifferenzierung) oder der Heterogenität der Lernenden zusammenhing.

Im Kontext eines adaptiven Unterrichts muss jedoch auch die Interpretation der ICC1 für die individuelle kognitive Aktivierung nochmal neu gedacht werden. Gelingt es einer Lehrkraft, durch Differenzierung im Unterricht alle Lernenden individuell herauszufordern, sollte die Übereinstimmung hinsichtlich der individuellen kognitiven Aktivierung innerhalb von Klassen hoch sein. Gelingt dies der Lehrkraft jedoch nicht, ist eine größere Varianz innerhalb von Klassen zu erwarten. Die ICC1 könnte so auch als Indikator für das Gelingen eines adaptiven Unterrichts verstanden werden.

Jedoch auch jenseits der Interpretation von Kennwerten verdient das Verhältnis von kognitiver Aktivierung und Adaptivität eine genauere Betrachtung. Ausgehend von einer theoretischen Verortung der kognitiven Aktivierung im Konstruktivismus liegt es nahe, dass diese nur als adaptives Unterrichten und somit individuell gedacht werden kann. Eine intensive Auseinandersetzung mit dem Lerninhalt, mit dem Ziel eines vertieften Verständnisses, ohne zu über- oder unterfordern, kann eigentlich nur gelingen, wenn die individuellen Lernvoraussetzungen der Schülerinnen und Schüler berücksichtigt werden (Parsons et al., 2018). Selbst wenn das Potential zur kognitiven Aktivierung betrachtet wird, werden vermutlich eher Unterrichtshandlungen als potentiell kognitiv aktivierend eingestuft, welche auf individuelle Voraussetzungen Rücksicht nehmen (z.B. das Erfragen von Denkprozessen oder das Provozieren von kognitiven Konflikten, Lipowsky, 2015). Ist dies der Fall, wäre zu erwarten, dass die Schülerinnen und Schüler auch innerhalb einer Klasse ein unterschiedliches Unterrichtsangebot erhalten und dieses natürlich auch entsprechend unterschiedlich wahrnehmen. Dementsprechend kann auch kritisch hinterfragt werden, inwiefern im Falle der kognitiven Aktivierung tatsächlich von einem Klassenmerkmal gesprochen werden kann.

Literatur

  • Arbuckle, J. L. (1996). Full information estimation in the presence of incomplete data. In G. A. Marcoulides R. E. Schumacker (Hrsg.), Advanced structural equation modelling. Issues and techniques (S. 243–277). Mahwah: L. Erlbaum Associates. First citation in articleGoogle Scholar

  • Baier, F. , Decker, A.-T. , Voss, T. , Kleickmann, T. , Klusmann, U. & Kunter, M. (2018). What makes a good teacher? The relative importance of mathematics teachers' cognitive ability, personality, knowledge, beliefs, and motivation for instructional quality. British Journal of Educational Psychology , 89 , 767–786. https://doi.org/10.1111/bjep.12256 First citation in articleCrossrefGoogle Scholar

  • Baumert, J. , Blum, W. , Brunner, M. , Dubberke, T. , Jordan, A. , Klusmann, U. et al. (2019). Anspruchsvolles Üben – Schüler [Fragebogenskala: Version 1.0]. In J. Baumert W. Blum M. Brunner T. Dubberke A. Jordan U. Klusmann , et al. (Hrsg.), Professionswissen von Lehrkräften, kognitiv aktivierender Mathematikunterricht und die Entwicklung mathematischer Kompetenz – Fragebogenerhebung Erhebungszeitpunkt 1 (COACTIV) [Skalenkollektion: Version 1.0] (Datenerhebung 2003–2004) . Frankfurt am Main: Forschungsdatenzentrum Bildung am DIPF. https://doi.org/10.7477/40:42:1 First citation in articleGoogle Scholar

  • Bellens, K. , van Damme, J. , van den Noortgate, W. , Wendt, H. & Nilsen, T. (2019). Instructional quality: catalyst or pitfall in educational systems' aim for high achievement and equity? An answer based on multilevel SEM analyses of TIMSS 2015 data in Flanders (Belgium), Germany, and Norway. Large-scale Assessments in Education , 7 (1). 1–27. https://doi.org/10.1186/s40536-019-0069-2 First citation in articleCrossrefGoogle Scholar

  • Bliese, P. D. (1998). Group Size, ICC Values, and Group-Level Correlations: A Simulation. Organizational Research Methods , 1 (4), 355–373. https://doi.org/10.1177/109442819814001 First citation in articleCrossrefGoogle Scholar

  • Bliese, P. D. (2000). Within-group agreement, non-independence, and reliability: Implications for data aggregation and analysis. In K. J. Klein S. W. J. Kozlowski (Hrsg.), Multilevel Theory, Research, and Methods in Organizations (S. 349–381). San Francisco: Jossey-Bass. First citation in articleGoogle Scholar

  • Bohlmann, N. L. & Weinstein, R. S. (2013). Classroom context, teacher expectations, and cognitive level: Predicting children's math ability judgments. Journal of Applied Developmental Psychology , 34 (6), 288–298. https://doi.org/10.1016/j.appdev.2013.06.003 First citation in articleCrossrefGoogle Scholar

  • Burke, M. J. & Dunlap, W. P. (2002). Estimating interrater agreement with the average deviation index: A user's guide. Organizational Research Methods , 5 , 159–172. First citation in articleCrossrefGoogle Scholar

  • Burke, M. J. , Finkelstein, L. M. & Dusig, M. S. (1999). On average deviation indices for estimating interrater agreement. Organizational Research Methods , 2 , 49–68. First citation in articleCrossrefGoogle Scholar

  • Büttner, G. (2004). Lernen und Lernschwierigkeiten aus pädagogischer Perspektive. In F. Dammasch D. Katzenbach (Hrsg.), Lernen und Lernstörungen bei Kindern und Jugendlichen. (S. 55–81). Frankfurt a.M.: Brandes & Apsel First citation in articleGoogle Scholar

  • Clausen, M. (2002). Unterrichtsqualität: Eine Frage der Perspektive? Münster: Waxmann. First citation in articleGoogle Scholar

  • Craik, F. I. & Lockhart, R. S. (1972). Levels of processing: A framework for memory research. Journal of Verbal Learning & Verbal Behavior , 11 (6), 671–684. https://doi.org/10.1016/S0022-5371(72)80001-X First citation in articleCrossrefGoogle Scholar

  • Decristan, J. , Fauth, B. , Kunter, M. , Büttner, G. & Klime, E. (2017). The interplay between class heterogeneity and teaching quality in primary school. International Journal of Educational Research , 86 , 109–121. https://doi.org/10.1016/j.ijer.2017.09.004 First citation in articleCrossrefGoogle Scholar

  • Decristan, J. , Hess, M. , Holzberger, D. & Praetorius, A.-K. (2020). Oberflächen- und Tiefenmerkmale. Eine Reflexion zweier prominenter Begriffe der Unterrichtsforschung. Zeitschrift für Pädagogik. Beiheft , 66 (1), 102–116. https://doi.org/10.3262/ZPB2001102 First citation in articleGoogle Scholar

  • Enders, C. K. & Tofighi, D. (2007). Centering predictor variables in cross-sectional multilevel models: A new look at an old issue. Psychological methods , 12 (2), 121–138. https://doi.org/10.1037/1082-989X.12.2.121 First citation in articleCrossrefGoogle Scholar

  • Fauth, B. , Decristan, J. , Rieser, S. , Klieme, E. & Büttner, G. (2014a). Students ratings of teaching quality in primary school: Dimensions and prediction of student outcomes. Learning and Instruction , 29 , 1–9. https://doi.org/10.1016/j.learninstruc.2013.07.001 First citation in articleCrossrefGoogle Scholar

  • Fauth, B. , Decristan, J. , Rieser, S. , Klieme, E. & Büttner, G. (2014b). Grundschulunterricht aus Schüler-, Lehrer- und Beobachterperspektive: Zusammenhänge und Vorhersage von Lernerfolg. Zeitschrift für Pädagogische Psychologie , 28 (3), 127–137. https://doi.org/10.1024/1010-0652/a000129 First citation in articleLinkGoogle Scholar

  • Fauth, B. , Göllner, R. , Lenske, G. , Praetorius, A.-K. & Wagner, W. (2020) Who sees what?: conceptual considerations on the measurement of teaching quality from different perspectives. Zeitschrift für Pädagogik , 66 , 63–80. https://doi.org/10.15496/publikation-41013 First citation in articleGoogle Scholar

  • Foy, P. , Martin, M. O. , Mullis, I. V. S. & Yin, L. (2017). Reviewing the PIRLS 2016 achievement item statistics. In M. O. Martin I. V. S. Mullis M. Hooper (Hrsg.), Methods and procedures in PIRLS 2016 . (10.1–10.26) Boston: Boston College and International Association for the Evaluation of Educational Achievement (IEA). https://timssandpirls.bc.edu/publications/pirls/2016-methods/P16_Methods_and_Procedures.pdf First citation in articleGoogle Scholar

  • Gage, N. L. (1963). Handbook of research on teaching . Chicago: Rand McNally. First citation in articleGoogle Scholar

  • Ganzeboom, H. B. G. , de Graaf, P. M. , Treiman, D. J. & de Leeuw, J. (1992). A standard international socio-economic index of occupational status (WORC Reprint). Tilburg: WORC, Work and Organization Research Centre. First citation in articleCrossrefGoogle Scholar

  • Hasselhorn, M. & Gold, A. (2022). Pädagogische Psychologie: Erfolgreiches Lernen und Lehren (5., überarbeitete Auflage). Stuttgart: Kohlhammer Verlag. First citation in articleCrossrefGoogle Scholar

  • Göllner, R. , Fauth, B. , Lenske, G. , Praetorius, A.-K. & Wagner, W. (2020). Do student ratings of classroom management tell us more about teachers or about classroom composition? Zeitschrift für Pädagogik , Beiheft 1, 156–172. https://doi.org/10.3262/ZPB2001132 First citation in articleGoogle Scholar

  • Hachfeld, A. & Lazarides, R. (2020). The relation between teacher self-reported individualization and student-perceived teachingquality in linguistically heterogeneous classes: an exploratory study. European Journal of Psychology of Education , 36 , 1159–1179. https://doi.org/10.1007/s10212-020-00501-5 First citation in articleCrossrefGoogle Scholar

  • Heller, K. A. & Perleth, C. (2000). KFT 4–12 + R – Kognitiver Fähigkeitstest für 4. bis 12. Klasse, Revision . Göttingen: Beltz. First citation in articleGoogle Scholar

  • Helmke, A. (2017). Unterrichtsqualität und Lehrerprofessionalität: Diagnose, Evaluation und Verbesserung des Unterrichts . Seelze: Klett-Kallmeyer. First citation in articleGoogle Scholar

  • Herbert, B. , Fischer, J. & Klieme, E. (2022). How valid are student perceptions of teaching quality across education systems?. Learning and Instruction , 82 , 101652. https://doi.org/10.1016/j.learninstruc.2022.101652 First citation in articleCrossrefGoogle Scholar

  • Herbert, B. & Schweig, J. (2021). Erfassung des Potenzials zur kognitiven Aktivierung über Unterrichtsmaterialien im Mathematikunterricht. Zeitschrift für Erziehungswissenschaft , 24 , 955–983. https://doi.org/10.1007/s11618-021-01020-9 First citation in articleCrossrefGoogle Scholar

  • Holzberger, D. , Philipp, A. & Kunter, M. (2013). How teachers' self-efficacy is related to instructional quality: A longitudinal analysis. Journal of Educational Psychology , 105 (3), 774–786. https://doi.org/10.1037/a0032198 First citation in articleCrossrefGoogle Scholar

  • Hu, L. T. & Bentler, P. M. (1999). Cutoff criteria for fit indexes in covariance structure analysis: Conventional criteria versus new alternatives. Structural Equation Modeling: A Multidisciplinary Journal , 6 (1), 1–55. https://doi.org/10.1080/10705519909540118 First citation in articleCrossrefGoogle Scholar

  • Hußmann, A. , Wendt, H. , Bos, W. , Bremerich-Vos, A. , Kasper, D. , Lankes, E.-M. et al. (2020). Internationale Grundschul-Lese-Untersuchung 2016 (IGLU 2016) (Version 1) [Datensatz]. Berlin: IQB – Institut zur Qualitätsentwicklung im Bildungswesen. https://doi.org/10.5159/IQB_IGLU_2016_v1 First citation in articleGoogle Scholar

  • Hußmann, A. , Wendt, H. , Bos, W. & Rieser, S. (Hrsg.). (2020). IGLU 2016: Skalenhandbuch zur Dokumentation der Erhebungsinstrumente und Arbeit mit den Datensätzen . Münster: Waxmann. First citation in articleCrossrefGoogle Scholar

  • Hußmann, A. , Wendt, H. , Kasper, D. , Bos, W. & Goy, M. (2017). Ziele, Anlage und Durchführung der Internationalen Grundschul-Lese-Untersuchung (IGLU 2016). In A. Hußmann H. Wendt W. Bos A. Bremerich-Vos D. Kasper E.-M. Lankes et al. (Hrsg.), IGLU 2016 Lesekompetenzen von Grundschulkindern in Deutschland im internationalen Vergleich (S. 29–77). Münster: Waxmann. First citation in articleGoogle Scholar

  • Igler, J. , Ohle-Peters, A. & McElvany, N. (2019). Mit den Augen eines Grundschulkindes. Individuelle Prädiktoren für divergierende Schülereinschätzungen von Unterrichtsqualität. Zeitschrift für pädagogische Psychologie , 33 (3–4), 191–205. https://doi.org/10.1024/1010-0652/a000243 First citation in articleLinkGoogle Scholar

  • Jaeckel, A.-K. , Göllner, R. & Trautwein, U. (2020). How Students’ Perceptions of teaching Quality in One Subject Are Impacted by the Grades They Receive in Another Subject: Dimensional Comparisons in Student Evaluations of Teaching Quality. Journal of Educational Psychology , 113 (4), 770–783. First citation in articleCrossrefGoogle Scholar

  • Klieme, E. (2018). Unterrichtsqualität. In M. Gläser-Zikuda M. Harring C. Rohlfs (Hrsg.). Handbuch Schulpädagogik (S. 393–408). Münster: Waxmann. First citation in articleGoogle Scholar

  • Klieme, E. , Lipowsky, F. , Rakoczy, K. & Drollinger-Vetter, B. (2010). Strukturierung, kognitive Aktivität und Leistungsentwicklung im Mathematikunterricht. Unterrichtswissenschaft , 38 (3), 229–246. First citation in articleGoogle Scholar

  • Klieme, E. , Pauli, C. & Reusser, K. (2009). The Pythagoras study: Investigating effects of teaching and learning in Swiss and German mathematics classrooms. In T. Janík T. Seidel (Hrsg.). The power of video studies in investigating teaching and learning in the classroom (S. 137–160). Münster: Waxmann. First citation in articleGoogle Scholar

  • Klieme, E. , Schümer, G. & Knoll, S. (2001). Mathematikunterricht in der Sekundarstufe I. „Aufgabenkultur“ und Unterrichtsgestaltung. In Bundesministerium für Bildung und Forschung (BMBF) (Hrsg.), TIMSS – Impulse für Schule und Unterricht (S. 43–57). Bonn: BMBF. First citation in articleGoogle Scholar

  • Kloss, J. (2014). Grundschüler als Experten für Unterricht – Empirische Überprüfung der Validität von Unterrichtsbeurteilungen durch Schüler der dritten und vierten Jahrgangsstufe. In E. Witruk (Hrsg.), Beiträge zur Pädagogischen und Rehabilitationspsychologie (Volume 6). Frankfurt am Main: Peter Lang. First citation in articleCrossrefGoogle Scholar

  • Kunter, M. , Brunner, M. , Baumert, J. , Klusmann, U. , Krauss, S. , Blum, W. , Jordan, A. & Neubrand, M. (2005). Der Mathematikunterricht der PISA-Schülerinnen und -Schüler. Zeitschrift für Erziehungswissenschaft , 8 , 502–520 (2005). https://doi.org/10.1007/s11618-005-0156-8 First citation in articleCrossrefGoogle Scholar

  • Kunter, M. & Trautwein, U. (2013). Psychologie des Unterrichts . Paderborn: Schöningh. First citation in articleCrossrefGoogle Scholar

  • Kunter, M. & Voss, T. (2011). Das Modell der Unterrichtsqualität in COACTIV: Eine multikriteriale Analyse. In M. Kunter J. Baumert W. BIum U. Klusmann S. Krauss M. Neubrand (Hrsg.), Professionelle Kompetenz von Lehrkräften – Ergebnisse des Forschungsprogramms COACTIV (S. 85–113). Münster: Waxmann. First citation in articleGoogle Scholar

  • Lazarides, R. & Buchholz, J. (2019). Student-perceived teaching quality: How is it related to different achievement emotions in mathematics classrooms? Learning and Instruction , 61 , 45–59. https://doi.org/10.1016/j.learninstruc.2019.01.001 First citation in articleCrossrefGoogle Scholar

  • LeBreton, J. M. & Senter, J. L. (2008). Answers to 20 Questions about Interrater Reliability and Interrater Agreement. Organizational Research Methods , 11 , 815–852. http://dx.doi.org/10.1177/1094428106296642 First citation in articleCrossrefGoogle Scholar

  • Lenske, G. & Helmke, A. (2015). Child respondents – Do they really answer what scientific questionnaires ask for? In W. Schnotz A. Kauertz H. Ludwig A. Müller J. Pretsch (Hrsg.), Multidisciplinary research on teaching and learning (S. 146–166). Basingstoke: Palgrave Macmillan. https://doi.org/10.1057/9781137467744_8 First citation in articleCrossrefGoogle Scholar

  • Leuders, T. & Holzäpfel, L. (2011). Kognitive Aktivierung im Mathematikunterricht. Unterrichtswissenschaft , 39 (3), 213–230. First citation in articleGoogle Scholar

  • Lipowsky, F. (2006). Auf den Lehrer kommt es an. Empirische Evidenzen für Zusammenhänge zwischen Lehrerkompetenzen, Lehrerhandeln und dem Lernen der Schüler. In C. Allemann-Ghionda (Hrsg.), Kompetenzen und Kompetenzentwicklung von Lehrerinnen und Lehrern. Ausbildung und Beruf . (S. 47–70) Weinheim u.a.: Beltz. First citation in articleGoogle Scholar

  • Lipowsky, F. (2015). Unterricht. In E. Wild J. Möller (Hrsg.), Pädagogische Psychologie (S. 69–105). Berlin: Springer. https://doi.org/10.1007/978-3-642-41291-2_4 First citation in articleCrossrefGoogle Scholar

  • Lipowsky, F. , Rakoczy, K. , Pauli, C. , Drollinger-Vetter, B. , Klieme, E. & Reusser, K. (2009). Quality of geometry instruction and its short-term impact on students' understanding of the Pythagorean Theorem. Learning and Instruction , 19 (6), 527–537. https://doi.org/10.1016/j.learninstruc.2008.11.001 First citation in articleCrossrefGoogle Scholar

  • Lotz, M. (2016). Kognitive Aktivierung im Leseunterricht in der Grundschule. Eine Videostudie zur Gestaltung und Qualität von Leseübungen im ersten Schuljahr . Wiesbaden: Springer. https://doi.org//10.1007/978-3-658-10436-8 First citation in articleCrossrefGoogle Scholar

  • Lüdtke, O. , Marsh, H. W. , Robitzsch, A. & Trautwein, U. (2011). A 2 × 2 taxonomy of multilevel latent contextual models: Accuracy-bias trade-offs in full and partial error correction models. Psychological Methods , 16 (4), 444–467. https://doi.org/10.1037/a0024376 First citation in articleCrossrefGoogle Scholar

  • Lüdtke, O. , Robitzsch, A. , Trautwein, U. & Kunter, M. (2009). Assessing the impact of learning environments: How to use student ratings of classroom or school characteristics in multilevel modeling. Contemporary Educational Psychology , 34 (2), 120–131. https://doi.org/10.1016/j.cedpsych.2008.12.001 First citation in articleCrossrefGoogle Scholar

  • Lüdtke, O. , Trautwein, U. , Kunter, M. & Baumert, J. (2006). Analyse von Lernumwelten: Ansätze zur Bestimmung der Reliabilität und Übereinstimmung von Schülerwahrnehmungen. Zeitschrift für Pädagogische Psychologie , 20 , 85–96. First citation in articleLinkGoogle Scholar

  • Marsh, H. W. , Lüdtke, O. , Nagengast, B. , Trautwein, U. , Morin, A. J. S. , Abduljabbar, A. S. et al. (2012). Classroom climate and contextual effects: Conceptual and methodological issues in the evaluation of group-level effects. Educational Psychologist , 47 (2), 106–124. https://doi.org/10.1080/00461520.2012.670488 First citation in articleCrossrefGoogle Scholar

  • Muthén, L. K. & Muthén B. O. (1998–2019). Mplus Users' Guide (7th edition) . Los Angeles, CA: Muthén & Muthén. First citation in articleGoogle Scholar

  • Palincsar, A. S. (1998). Social constructivist perspectives on teaching and learning. Annual review of psychology , 49 (1), 345–375. https://doi.org/10.1146/annurev.psych.49.1.345 First citation in articleCrossrefGoogle Scholar

  • Parsons, S. A. , Vaughn, M. , Scales, R. Q. , Gallagher, M. A. , Parsons, A. W. , Davis, S. G. et al. (2018). Teachers' Instructional Adaptations: A Research Synthesis. Review of Educational Research , 88 (2), 205–242. https://doi.org/10.3102/0034654317743198 First citation in articleCrossrefGoogle Scholar

  • Patrick, H. , Mantzicopoulos, P. & Sears, D. (2012). Effective classrooms. In K. R. Harris S. Graham T. Urdan S. Graham J. M. Royer M. Zeidner (Hrsg.), APA educational psychology handbook , Vol. 2. Individual differences and cultural and contextual factors (pp. 443–469). American Psychological Association. https://doi.org/10.1037/13274-018 First citation in articleCrossrefGoogle Scholar

  • Pauli, C. (2020). Kommentar zum Themenblock „Oberflächen- und Tiefenstruktur des Unterrichts“. Zeitschrift für Pädagogik , Beiheft 1, 132–137. https://doi.org/10.3262/ZPB2001132 First citation in articleGoogle Scholar

  • Philips, D. C. (1995). The good, the bad, and the ugly: The many faces of constructivism. Educational Researcher , 24 (7), 5–12. First citation in articleCrossrefGoogle Scholar

  • Pianta, R. C. & Hamre, B. K. (2009). Conceptualization, measurement, and improvement of classroom processes: Standardized observation can leverage capacity. Educational Researcher , 38 (2), 109–119. https://doi.org/10.3102/0013189X09332374 First citation in articleCrossrefGoogle Scholar

  • Pinger, P. , Rakoczy, K. , Besser, M. & Klieme, E. (2018). Interplay of formative assessment and instructional quality-interactive effects on students' mathematics achievement. Learning Environment Research , 21 , 61–79. https://doi.org/10.1007/s10984-017-9240-2 First citation in articleCrossrefGoogle Scholar

  • Praetorius, A.-K. , Klieme, E. , Herbert, B. & Pinger, P. (2018). Generic dimensions of teaching quality: the German framework of Three Basic Dimensions. ZDM Mathematics Education , 50 , 407–426. https://doi.org/10.1007/s11858-018-0918-4 First citation in articleCrossrefGoogle Scholar

  • Praetorius, A.-K. , Lauermann, F. , Klassen, R. M. , Dickhäuser, O. , Janke, S. & Dresel, M. (2017). Longitudinal relations between teaching-related motivations and student-reported teaching quality. Teaching and Teacher Education , 65 , 241–254. https://doi.org/10.1016/j.tate.2017.03.023 First citation in articleCrossrefGoogle Scholar

  • Ramm, G. , Prenzel, M. , Baumert, J. , Blum, W. , Lehmann, R. , Leutner, D. , et al. (2012). Anspruchsvolles Üben – Schüler [Fragebogenskala: Version 1.0]. In G. Ramm M. Prenzel J. Baumert W. Blum R. Lehmann D. Leutner et al. (Hrsg.), Programme for International Student Assessment (2003) – Fragebogenerhebung (PISA-I) [Skalenkollektion: Version 1.0] (Datenerhebung 2003). Frankfurt am Main: Forschungsdatenzentrum Bildung am DIPF. https://doi.org/10.7477/15:287:1 First citation in articleGoogle Scholar

  • Renkl, A. (2010). Lehren und Lernen. In R. Tippelt B. Schmidt (Hrsg.) Handbuch Bildungsforschung (S. 737–751). Wiesbaden: VS Verlag für Sozialwissenschaften https://doi.org/10.1007/978-3-531-92015-3 First citation in articleCrossrefGoogle Scholar

  • Reusser, K. (2006). Konstruktivismus – vom epistemologischen Leitbegriff zur Erneuerung der didaktischen Kultur. In: M. Baer M. Fuchs P. Füglister K. Reusser H. Wyss (Hrsg.). Didaktik auf psychologischer Grundlage. Von Hans Aeblis kognitionspsychologischer Didaktik zur modernen Lehr- und Lernforschung (S. 151–168). Bern: hep. First citation in articleGoogle Scholar

  • Rieser, S. , Stahns, R. , Walzebug, A. & Wendt, H. (2016). Einblicke in die Gestaltung des Mathematik- und Sachunterrichts. In H. Wendt W. Bos C. Selter O. Köller K. Schwippert D. Kasper (Hrsg.) TIMSS 2015 – Mathematische und naturwissenschaftliche Kompetenzen von Grundschulkindern in Deutschland im internationalen Vergleich (S. 205–224). Münster: Waxmann. First citation in articleGoogle Scholar

  • Roth, W.-M. & Lee, Y.-J. (2007). „Vygotsky's Neglected Legacy“: Cultural-Historical Activity Theory. Review of Educational Research , 77 (2), 186–232. https://doi.org/10.3102/0034654306298273 First citation in articleCrossrefGoogle Scholar

  • Seidel, T. (2014). Angebots-Nutzungs-Modelle in der Unterrichtspsychologie. Integration von Struktur- und Prozessparadigma. Zeitschrift für Pädagogik , 60 (6), 850–866. https://doi.org/10.25656/01:14686 First citation in articleGoogle Scholar

  • Schiepe-Tiska, A. , Heine, J.-H. , Lüdtke, O. , Seidel, T. & Prenzel, M. (2016). Mehrdimensionale Bildungsziele im Mathematikunterricht und ihr Zusammenhang mit den Basisdimensionen der Unterrichtsqualität. Unterrichtswissenschaft , 44 (3), 211–225. First citation in articleGoogle Scholar

  • Schweig, J. D. (2016). Moving beyond means: revealing features of the learning environment by investigating the consensus among student ratings. Learning Environments Research: An International Journal , 19 (3), 441–462. https://doi.org/10.1007/s10984-016-9216-7 First citation in articleCrossrefGoogle Scholar

  • Stahns, R. , Rieser, S. , & Hußmann, A. (2020). Können Viertklässlerinnen und Viertklässler Unterrichtsqualität valide einschätzen? Ergebnisse zum Fach Deutsch. Unterrichtswissenschaft , 48 , 663–682. https://doi.org/10.1007/s42010-020-00084-6 First citation in articleCrossrefGoogle Scholar

  • Van der Scheer, E. A. , Bijlsma, H. J. E. & Glas, C. A. W. (2019). Validity and reliability of student perceptions of teaching quality in primary education. School Effectiveness and School Improvement , 30 (1), 30–50. https://doi.org/10.1080/09243453.2018.1539015 First citation in articleCrossrefGoogle Scholar

  • Vieluf, S. , Praetorius, A.-K. , Rakoczy, K. , Kleinknecht, M. & Pietsch, M. (2020). Angebots-Nutzungs-Modelle der Wirkweise des Unterrichts: Ein kritischer Vergleich verschiedener Modellvarianten. Zeitschrift für Pädagogik , 66 , 63–80. https://doi.org/10.3262/ZPB2001063 First citation in articleGoogle Scholar

  • Vygotskij, L. S. (1978). Mind in society: the development of higher psychological processes . Cambridge: Harvard University Press. First citation in articleGoogle Scholar

  • Wagner, W. (2008). Methodenprobleme bei der Analyse von Unterrichtswahrnehmung aus Schülersicht (Dissertation). Landau: Universität Koblenz-Landau. First citation in articleGoogle Scholar

  • Wagner, W. , Göllner, R. , Helmke, A. , Trautwein, U. & Lüdtke, O. (2013). Construct validity of student perceptions of instructional quality is high, but not perfect: dimensionality and generalizability of domain-independent assessments. Learning and Instruction , 28 , 1–11. First citation in articleCrossrefGoogle Scholar

  • Wagner, W. , Trautwein, U. & Göllner, R. (2018). Students' Idiosyncratic Perceptions of Teaching Quality in Mathematics: A Result of Rater Tendency Alone or an Expression of Dyadic Effects Between Students and Teachers? Journal of Educational Psychology , 110 (5), 709–725. https://doi.org/10.15496/publikation-34259 First citation in articleCrossrefGoogle Scholar

  • Webb, N. M. (2011). Peer learning in the classroom. In S. Jarvela (Hrsg.), Social and Emotional Aspects of Learning (S. 162–168). Amsterdam: Elsevier. First citation in articleGoogle Scholar

  • Werth, S. , Wagner, W. , Ogrin, S. , Trautwein, U. , Friedrich, A. Keller, S. , Ihringer, A. & Schmitz, B. (2012). Förderung des selbstregulierten Lernens durch die Lehrkräftefortbildung „Lernen mit Plan“: Effekte auf fokale Trainingsinhalte und die allgemeine Unterrichtsqualität. Zeitschrift für Pädagogische Psychologie , 26 (4), 291–305. First citation in articleLinkGoogle Scholar

  • Willems, A. S. (2022). Individuelle Schüler*innenprofile des situationalen und dispositionalen Interesses und ihre Bedeutung für die Wahrnehmung der Unterrichtsqualität im Fach Mathematik. Zeitschrift für Erziehungswissenschaft , 25 , 377–404. https://doi.org/10.1007/s11618-022-01094-z First citation in articleCrossrefGoogle Scholar

  • Wirtz, M. A. & Nachtigall, C. (2012). Deskriptive Statistik: Statistische Methoden für Psychologen Teil 1 (6. Aufl.). Weinheim: Beltz. First citation in articleGoogle Scholar