Skip to main content
Free AccessEditorial

Diagnostik von studentischen Kompetenzen im Hochschulsektor

Einleitung in den Thementeil

Published Online:https://doi.org/10.1026/0012-1924/a000252

Im Kontext umfassender Reformen im Hochschulsektor und einer damit einhergehenden zunehmenden Kompetenzorientierung in den letzten Jahren (Wissenschaftsrat, 2015; Schaper, Reis, Wildt, Horvath & Bender, 2012), ist die Diagnostik von studentischen fachlichen und fachübergreifenden Kenntnissen, Fähigkeiten und Fertigkeiten in den aktuellen Forschungsfokus gerückt (Kim & Lalancette, 2013; Zlatkin-Troitschanskaia, Pant, Kuhn, Toepper & Lautenbach, 2016). In Deutschland beginnen zunehmend mehr junge Menschen ein akademisches Studium (BMBF, 2017; Statistisches Bundesamt, 2017) und fast jeder Vierte bzw. an vielen Standorten bereits jeder Dritte bricht das aufgenommene Studium wieder ab (Heublein, 2014). Vor dem Hintergrund stetig steigender Studierendenzahlen, Internationalisierung, überregionaler und interinstitutioneller Mobilität sowie zunehmender Diversifikation von Studienbedingungen, u. a. auch durch die vielfältigen Zugangsmöglichkeiten zum Studium inkl. internationaler Mobilität sowie auch im Kontext von verschiedenen Bedingungen in den einzelnen Bundesländern, auch im Schul- bzw. Abiturbereich, hat die Heterogenität der Studierenden i. S. von zunehmend großen Unterschieden der Studieneingangsvoraussetzungen der Studierendenschaft dramatisch zugenommen.

Diese Entwicklungen im deutschen Hochschulsektor weisen auf die Notwendigkeit hin, objektive, valide und zuverlässige Methoden zur Diagnostik der Kompetenzen von Studierenden in den verschiedenen Studienphasen und Domänen in Betracht zu ziehen (Zlatkin-Troitschanskaia et al., 2016). Mittels auf verschiedenen diagnostischen Verfahren basierenden binnendifferenzierten Angeboten, könnten bereits in der Studieneingangsphase Unterschiede in den Eingangsvoraussetzungen zwischen Studierenden frühzeitig aufgedeckt und angemessen berücksichtigt werden, um so auch den Studienerfolg nachhaltig zu unterstützen (Wissenschaftsrat, 2015; Leutner, Hartig & Jude, 2008). In Ergänzung zu einer validen und aussagekräftigen Eingangsdiagnostik, könnte mittels Lernverlaufsdiagnostik, basierend auf objektiven und zuverlässigen Testverfahren, die Kompetenzentwicklung von Studierenden im Studium valide erfasst werden. Die Daten aus formativen Testungen wären eine signifikante Bereicherung in der bisherigen hochschulischen Prüfungspraxis, die aufgrund ihrer auf die einzelnen Studienmodule isolierten und ihres summativen Charakters kaum Schlüsse über die Lernverläufe im Studium zulässt (Lindner, Strobel & Köller, 2015). Neue technologie-basierte Verfahren, wie adaptives Testen, versprechen hier besondere Potenziale für eine Lernprozessdiagnostik und -analyse (z. B. Souvignier, 2018).

Trotz einer zunehmenden Fokussierung auf die Kompetenzforschung im Hochschulbereich wie es sich bspw. an einer steigenden Zahl an Studien in diesem Bereich zeigen lässt (Zlatkin-Troitschanskaia et al., 2017), mangelt es im deutschsprachigen Raum jedoch immer noch an validierten Testinstrumenten für eine Eingangs- sowie Lernverlaufsdiagnostik im Hochschulbereich. In den letzten Jahren wurden dafür im Kontext des durch das Bundesministerium für Bildung und Forschung (BMBF) geförderten Forschungsprogramms „Kompetenzmodelle und Instrumente der Kompetenzerfassung im Hochschulsektor – Validierungen und methodische Innovationen“1 neue Messinstrumente zur Erfassung von verschiedenen Kompetenzfacetten, wie Fachwissen und generische Fähigkeiten, entwickelt und nach international gültigen Standards für das psychologische und pädagogische Testen (AERA, NCME & APA, 2014) umfassend validiert. Die meisten Entwicklungs- und Forschungsarbeiten in diesem Kontext haben sich auf die Domäne der Lehrkräftebildung sowie auf verschiedene fachübergreifende Kompetenzfacetten wie bspw. wissenschaftliches Denken fokussiert.

Das vorliegende Themenheft beleuchtet aktuelle Forschungsarbeiten aus diesem Bereich und präsentiert fünf neu entwickelte und umfassend validierte Testverfahren. Für das Forschungsgebiet exemplarisch dargestellt werden drei Messinstrumente aus dem Bereich der Lehrkräftebildung sowie zwei Tests zur domänenübergreifenden Erfassung von generischen Fähigkeiten von Studierenden.

Olga Kunina-Habenicht, Christina Maurer, Kristin Wolf, Doris Holzberger, Maria Schmidt, Theresa Dicke, Ziwen Teuber, Marta Koc-Januchta, Hendrik Lohse-Bossenz, Detlev Leutner, Tina Seidel und Mareike Kunter präsentieren in ihrem Beitrag einen revidierten Test zur Erfassung des bildungswissenschaftlichen Wissens von (angehenden) Lehrkräften – den BilWiss-2.0-Test. Basierend auf den Hinweisen zur psychometrischen Güte des Testinstruments, zeigen die Autorinnen und Autoren weitreichende Potenziale für den Einsatz des BillWiss-Tests in der Lehramtsausbildung auf.

Der darauf folgende Beitrag von Johannes König und Albert Bremerich-Vos stellt einen neu entwickelten und validierten Test zur Erfassung von fachdidaktischem Wissen angehender Deutschlehrkräfte als eine zentrale Facette professionellen Lehrendenwissens der Sekundarstufen I und II vor. Die Ergebnisse zeigen, dass der Test eine reliable und valide Messung bei Probandinnen und Probanden mit verschiedenen Expertiseniveaus (Lehramtstudierende [Bachelor, Master], Referendarinnen und Referendare) erlaubt.

Der anschließende Beitrag von Caroline Felske (geb. Nehls), Johannes König, Gabriele Kaiser, Stefan Klemenz, Natalie Ross und Sigrid Blömeke gibt Einblicke in die Validierung des TEDS-M-Tests zur Erfassung pädagogischen Wissens am Ende der Lehramtsausbildung. Die Autorinnen und Autoren zeigen, dass der Test das Wissen der Lehrkräfte reliabel und differenziert erfasst, und sich eignet, um quantitative und qualitative Aussagen zum pädagogischen Wissen von berufstätigen Mathematiklehrkräften treffen zu können.

Die beiden darauf folgenden Beiträge stellen Befunde zu neu entwickelten und validierten Testinstrumenten zur domänenübergreifenden Erfassung von generischen Fähigkeiten von Studierenden dar.

Der Beitrag von Cornelia Schoor, Carolin Hahnel, Cordula Artelt, Daniel Reimann, Ulf Kröhne und Frank Goldhammer beschreibt die Entwicklung und Skalierung eines neuen computerbasieten Testverfahrens zur Erfassung des Verständnisses multipler Dokumente von Studierenden. Die präsentierten Ergebnisse liefern empirische Belege dafür, dass der Testwert aus dem MDC-Test die fächerübergreifende Fähigkeit von Studierenden wiedergibt, aus verschiedenen Informationsquellen eine integrierte Repräsentation eines inhaltlichen Gegenstandsbereichs zu konstruieren.

Ein weiterer Beitrag des Themenhefts von Hannes Münchow, Tobias Richter, Sarah von der Mühlen, Sebastian Schmid, Katherine E. Bruns und Kirsten Berthold präsentiert Ergebnisse zur Reliabilität und Validität des computergestützten Argumentstrukturtests (AST) zur Erfassung von Verstehen und Bewerten von (informellen) Argumenten in wissenschaftlichen Texten von Studierenden. Die dargestellten Befunde liefern Hinweise zur validen und reliablen Messung dieser Kompetenz mittels des AST.

Insgesamt liegt der Fokus der im Themenheft präsentierten Studien auf der kritischen Betrachtung der neuen Messverfahren mit Blick auf deren Validität als zentrales Gütekriterium pädagogisch-psychologischer Messinstrumente (AERA et al., 2014; Kane, 2013; Testkuratorium, 2009, 2010) und diagnostischer Qualität für die Hochschulpraxis. Die dargestellten Forschungsarbeiten verdeutlichen das Leistungs- und Wirkungspotenzial einer auf validen Testinstrumenten basierenden Diagnostik von studentischen Kompetenzen im Hochschulsektor. Die Beiträge in diesem Themenheft zeigen, wie sich diagnostische Verfahren sinnvoll für den Bereich der Lehrkräfteausbildung sowie domänenübergreifend nutzen lassen.

Wir bedanken uns herzlich bei allen Autorinnen und Autoren für die interessanten Beiträge, bei den Gutachterinnen und Gutachtern für die kritisch-konstruktiven Rückmeldungen zu den Manuskripten, sowie bei der Redaktion für die Betreuung und Unterstützung bei der Erstellung dieses Themenheftes.

Literatur

  • American Educational Research Association (AERA), American Psychological Association (APA), National Council on Measurement in Education (NCME) & Joint Committee on Standards for Educational and Psychological Testing (2014). Standards for educational and psychological testing. Washington, DC: AERA. First citation in articleGoogle Scholar

  • Bundesministerium für Bildung und Forschung (BMBF). (2017). Berufsbildungsbericht 2017. Bonn: BMBF. Verfügbar unter: https://www.bmbf.de/de/berufsbildungsbericht-2740.html First citation in articleGoogle Scholar

  • Heublein, U. (2014). Student drop-out from German higher education institutions. European Journal of Education, 49, 497 – 513. First citation in articleCrossrefGoogle Scholar

  • Kane, M. T. (2013). Validating the interpretations and uses of test Scores. Journal of Educational Measurement, 50 (1), 1 – 73. First citation in articleCrossrefGoogle Scholar

  • Kim, H. & Lalancette, D. (2013). Literature review on the value-added measurement in higher education. Paris: OECD. First citation in articleGoogle Scholar

  • Leutner, D., Hartig, J. & Jude, N. (2008). Measuring competencies: Introduction to concepts and questions of assessment in education. In J. HartiE. KliemeD. Leutner (Eds.), Assessment of competencies in educational contexts (pp. 177 – 192). Göttingen: Hogrefe. First citation in articleGoogle Scholar

  • Lindner, M. A., Strobel, B. & Köller, O. (2015). Multiple-Choice-Prüfungen an Hochschulen? Ein Überblick mit Plädoyer für mehr praxisorientierte Forschung. Zeitschrift für Pädagogische Psychologie, 29, 133 – 149. https://doi.org/10.1024/1010-0652/a000156 First citation in articleLinkGoogle Scholar

  • Schaper, N., Reis, O., Wildt, J., Horvath, E. & Bender, E. (2012). Fachgutachten zur Kompetenzorientierung in Studium und Lehre [Nexus]. Hochschulrektorenkonferenz (HRK). First citation in articleGoogle Scholar

  • Souvignier, E. (2018). Computerbasierte Lernverlaufsdiagnostik. Göttingen: Hogrefe. https://doi.org/10.1024/2235-0977/a000240 First citation in articleLinkGoogle Scholar

  • Statistisches Bundesamt (2017). Bildung und Kultur: Studierende an Hochschulen. Fachserie 11 Reihe 4.1. Wiesbaden: Destatis. Statistisches Bundesamt. First citation in articleGoogle Scholar

  • Testkuratorium der Föderation Deutscher Psychologenvereinigungen (2009, 2010). TBS-TK. Testbeurteilungssystem des Testkuratoriums der Föderation Deutscher Psychologenvereinigungen. Revidierte Fassung vom 09. September 2009. Report Psychologie, 34, 470 – 478. sowie Psychologische Rundschau, 61, 52 – 56. First citation in articleGoogle Scholar

  • Wissenschaftsrat (WR). (2015). Empfehlungen zum Verhältnis von Hochschulbildung und Arbeitsmarkt – Zweiter Teil der Empfehlungen zur Qualifizierung von Fachkräften vor dem Hintergrund des demographischen Wandels. Bielefeld: Wissenschaftsrat. Verfügbar unter: https://www.wissenschaftsrat.de/download/archiv/4925-15.pdf First citation in articleGoogle Scholar

  • Zlatkin-Troitschanskaia, O., Pant, H. A., Kuhn, C., Toepper, M. & Lautenbach, C. (2016). Messung akademisch vermittelter Kompetenzen von Studierenden und Hochschulabsolventen: Ein Überblick zum nationalen und internationalen Forschungsstand. Wiesbaden: Springer VS Verlag für Sozialwissenschaften. First citation in articleCrossrefGoogle Scholar

  • Zlatkin-Troitschanskaia, O., Pant, H. A., Lautenbach, C., Molerov, D., Toepper, M. & Brückner, S. (2017). Modeling and measuring competencies in higher education: Approaches to challenges in higher education policy and practice. Wiesbaden: Springer VS Verlag für Sozialwissenschaften. First citation in articleCrossrefGoogle Scholar

  • Zlatkin-Troitschanskaia, O., Pant, H. A., Toepper, M. & Lautenbach, C. (2020). Modeling and measuring competencies in higher education – The KoKoHs program. In O. Zlatkin-TroitschanskaiH. A. PanM. ToepperC. Lautenbach (Eds.), Student learning in German higher education. Innovative measurement approaches and research results (pp. 1 – 6). Wiesbaden: Springer VS. https://doi.org/10.1007/978-3-658-27886-1_1 First citation in articleGoogle Scholar

1Zur Pojektübersicht im KoKoHs-Programm s. Zlatkin-Troitschanskaia, Pant, Toepper und Lautenbach (2020). Die Förderlinie baut auf der KoKoHs-Förderlinie von 2011 bis 2015 auf, in der Forschende aus verschiedenen Studiendisziplinen, Fachdidaktiken und der Kompetenzforschung im Rahmen eines multidisziplinär und methodenintegrativ angelegten Forschungsprogramms in insgesamt 24 Projektverbünden zusammengearbeitet haben. In den KoKoHs-Projekten wurden Kompetenzmodelle und Instrumente zur validen Erfassung akademisch erworbener, fachübergreifender Kompetenzen sowie insbesondere domänenspezifische Fertigkeiten und Kenntnisse in den Studiendomänen der Ingenieurwissenschaften, der Wirtschafts- und Sozialwissenschaften, der Bildungswissenschaften und der Lehrkräfteausbildung in den MINT-Fächern entwickelt und bundesweit empirisch erprobt (Zlatkin-Troitschanskaia et al., 2017).

Prof. Dr. Olaf Köller, IPN – Leibniz-Institut für die Pädagogik der Naturwissenschaften und Mathematik, Christian-Albrechts-Universität zu Kiel, Olshausenstraße 62, 24118 Kiel,
Prof. Dr. Hans Anand Pant, Kultur-‍, Sozial- und Bildungswissenschaftliche Fakultät, Humboldt-Universität zu Berlin, Unter den Linden 6, 10099 Berlin,
Prof. Dr. Olga Zlatkin-Troitschanskaia, Fachbereich 03, Johannes Gutenberg-Universität Mainz, Jakob-Welder-Weg 9, 55128 Mainz,