Skip to main content
Open AccessÜbersichtsarbeit

Zwischen Mensch und Maschine: Künstliche Intelligenz zur Förderung von Lernprozessen

Published Online:https://doi.org/10.1024/2235-0977/a000386

Abstract

Zusammenfassung.Hintergrund: Die Rolle und der Einsatz von künstlicher Intelligenz (KI) und Machine Learning im Lernkontext wird seit der Digitalisierungsoffensive stark diskutiert. KI-basierte Werkzeuge bieten vielversprechende Möglichkeiten, um Lernprozesse besser zu verstehen und im weiteren Fortgang zu optimieren. Der Zuwachs an Daten und Metriken, die durch neue Sensoren und digitale Lernumgebungen zur Verfügung gestellt werden, ermöglicht den Einsatz von KI und Machine Learning. Solche Methoden bieten sich insbesondere an, wenn die menschliche Informationsverarbeitung nicht in der Lage ist, die komplexen und multimodalen Daten effizient und zeitnah zu verarbeiten sowie notwendige Schlüsse daraus zu ziehen. Methode: Für den aktuellen Artikel wurde eine selektive Literaturrecherche betrieben, um die unterschiedlichen Schritte bei KI-gestützten Lernsystemen genauer zu beleuchten. Diskussion: Es lassen sich drei zentrale Schritte im Prozess des KI-gestützten Lernens identifizieren: (i) Datenaufzeichnung, (ii) Mustererkennung und (iii) Adaptivität in digitalen Lernumgebungen. Der Mensch spielt in KI-gestützten Lernsystemen eine entscheidende und nicht durch die „Maschine“ zu ersetzende Rolle, die im aktuellen Artikel genauer erläutert wird. Zudem werden weitere wichtige Aspekte für die Umsetzung von KI-gestützten Lernsystemen wie die Notwendigkeit interdisziplinärer Zusammenarbeit, Theoriearbeit und der Schließung von Forschungslücken perspektivisch diskutiert und elaboriert.

Between Human and Machine: Artificial Intelligence to Facilitate Learning Processes

Abstract.Introduction: Since the recent digitalization offensive, the role and use of artificial intelligence (AI) and machine learning in the learning context has been the subject of discussion. These tools offer promising opportunities to better understand and subsequently optimize learning processes. The increase in data and metrics provided by new sensors and digital learning environments enables the use of AI and machine learning. Such methods are particularly promising, when human information processing is not able to efficiently process the complex and multimodal data just-in-time and draw necessary conclusions from it. Method: For the current article, a selective literature search was conducted in order to shed more light on the different steps in AI-supported learning systems. Discussion: Three central steps in the process of AI-supported learning can be identified: (i) data recording, (ii) pattern recognition, and (iii) adaptivity in digital learning environments. Humans play a crucial role in AI-supported learning systems that cannot be replaced by the “machine”, this role will be elaborated in the current article. In addition, further important aspects for the implementation of AI-supported learning systems such as the need for interdisciplinary collaboration, theory work, and closing of research gaps will be discussed.

Einleitung

Die zunehmende Allgegenwärtigkeit von digitalen Lehr-Lern-Technologien (z.B. Lernspiele, Simulationen, Lernmanagementsysteme) scheint oftmals in Kontrast zu traditionellen Bildungssettings zu stehen, in denen häufig lehrer_innenzentrierter Unterricht durchgeführt wird, schriftliche Abschluss- oder Schularbeiten als primäre Quelle der Leistungsbewertung herangezogen werden und auch „one-fits-all“ Lösungen dominant sind (z.B. das gleiche Schulbuch für alle Schüler_innen). Diese Aspekte können durch digitale Lehr-Lern-Technologien maßgeblich erweitert werden. Ein entscheidender Aspekt des Lernens und Lehrens mithilfe digitaler Lehr-/Lern-Technologien ist die potenzielle Erfassung bzw. Aufzeichnung zahlreicher Interaktions- bzw. Prozessdaten, die Aufschluss über den laufenden Lehr-Lernprozess geben können. Die potenziell darüber gewonnen Erkenntnisse könnten dafür eingesetzt werden, vor, nach oder sogar während dem Lernprozess adaptive Anpassungen vorzunehmen und Unterstützungen zur Verfügung zu stellen (vgl. Plass & Pawar, 2020). Besonders vielversprechend erscheint es hierbei, Muster oder Sequenzen in den aufgezeichneten Lernprozessen zu erkennen. Dieser Erkenntnisgewinn durch die Identifikation von Mustern in den Daten, die die Lehrenden und Lernenden und/oder das Lernsystem informieren können, ist jedoch nicht ohne Weiteres zu erreichen und umzusetzen. Künstliche Intelligenz (KI) und Machine Learning (ML) könnten hierbei nützlich sein. KI ist ein Überbegriff für Maschinen oder Technologien, die die menschliche Intelligenz simulieren oder nachahmen sollen, wie zum Beispiel das Lernen aus Fehlern (siehe Abb. 1). ML beschreibt ein Teilgebiet von KI und beschäftigt sich mit der Entwicklung und Anwendung von Algorithmen zur Erstellung von Modellen, die dazu genutzt werden können, Prozesse zu optimieren (z.B. Erkennung von bestimmten Mustern) und Ergebnisse genauer vorherzusagen (z.B. eine datengestützte Vorhersage darüber, ob ein/e Schüler_in das Semester erfolgreich abschließen wird oder nicht). Entsprechend können KI und ML die Identifikation von Mustern in Lehr-/Lerndaten unterstützen und optimieren. Noch komplexer wird der Vorgang der Mustererkennung, wenn man die jüngsten Fortschritte in der Sensortechnologie berücksichtigt, die (neuro-)physiologische Messungen während des Lernens ermöglichen (z.B. Janssen et al., 2021; Nebel & Ninaus, 2019; Schneider, Börner, Van Rosmalen & Specht, 2015), und somit einen noch tieferen Einblick in die zugrunde liegenden Prozesse erlauben. Auch wenn es sich bei der Verwendung von physiologischen Messungen wohl meist noch um Ansätze im Forschungs- und Laborkontext handelt, darf man die heutzutage stattfindenden raschen technischen Entwicklungen in diesem Bereich nicht außer Acht lassen. Man denke hierbei an die Datenquelle Smartphone, die neben Interaktionsdaten mit diversen Apps auch Bewegungsdaten (z.B. Geyer, Ellis, Shaw & Davidson, 2022) oder mithilfe einer Smartwatch auch die Erfassung kardiovaskulärer Metriken erlaubt (z.B. Isakadze & Martin, 2020).

Abbildung 1 Schematische Darstellung des Überbegriffs Künstlicher Intelligenz; SVM = Support Vector Machine.

Es stellt sich jedoch die Frage, wie die von den Lernenden bzw. der Lernumgebung bereitgestellten Daten optimal genutzt werden können, um eine Personalisierung bzw. Adaptivität zu erreichen. Dazu zählen verbesserte und angepasste Leistungsmessungen und Lernprozesse. KI und ML können hierbei eine wichtige Rolle übernehmen (z.B. Appel et al., 2021; Goldberg et al., 2021; Järvelä, Gašević, Seppänen, Pechenizkiy & Kirschner, 2020; Ninaus et al., 2019). In diesem Artikel wollen wir jedoch klar die Bedeutsamkeit der Menschen in KI- bzw. ML-gestützten Lernsystemen verdeutlichen. Der Mensch kann und muss hierbei an mehreren Schritten als Entscheidungsträger_in agieren. Entsprechend sind möglichst hybride Lösungen anzustreben (vgl. Holstein, Aleven & Rummel, 2020; Molenaar, 2021), in denen es zu einer Zusammenarbeit zwischen Mensch und Maschine bzw. menschlicher und künstlicher Intelligenz kommt. Im Folgenden sollen daher die Schritte der Zusammenarbeit in einem ML- bzw. KI-gestützten hybriden Lehr-Lernsystem genauer erläutert werden. Im Zentrum eines solchen Systems stehen die Nutzer_innen (Lerner_innen, Lehrer_innen, etc). Die Nutzer_innen produzieren potenziell (lern-)relevante Daten, aus denen mithilfe sowohl theoretischer (menschlicher Entscheidung) als auch datengetriebener (Maschine) Auswahlprozesse relevante Daten vorselektiert werden können. In einem nächsten Schritt sollen relevante Muster in den Daten erkannt werden, die bei großen Datenmengen von Maschinen effizient erledigt werden können. Basierend auf einer erfolgten Mustererkennung sollen Entscheidungen über mögliche Adaptationen bzw. Personalisierungen getroffen werden, d.h. darüber, ob die Notwendigkeit einer Anpassung besteht und wenn ja, welche Anpassung durch wen vorgenommen werden soll. Obgleich die Ausführung dieser Schritte unter Verwendung digitaler Technologien automatisiert und von einer KI übernommen werden kann, ist in vielen Belangen eine menschliche Komponente in der Auswahl und Implementierung der adaptiven Elemente notwendig. Zunächst wird das dem Artikel zugrundeliegende methodische Vorgehen kurz beschrieben, bevor die einzelnen Schritte der Verwendung von KI in Lernsystemen dargelegt werden.

Methode

Für die vorliegende Übersichtsarbeit wurde eine selektive Literaturrecherche durchgeführt. Hierbei wurde speziell für die einzelnen von den Autoren identifizierten Schritte (Datenaufzeichnung, Mustererkennung, Adaptivität), die zum Teil von unterschiedlichen Disziplinen bedient und beforscht werden, der Stand der Forschung herausgearbeitet. Darüber hinaus wurden Anwendungsszenarien für die jeweiligen Schritte und für das Durchlaufen der einzelnen Schritte recherchiert, die in diesem Beitrag exemplarisch beschrieben werden. Im Folgenden sollen die genannten Schritte der Datenaufzeichnung, Mustererkennung und Adaptivität unter besonderer Berücksichtigung der Rolle des Menschen in KI-gestützten Lernsystemen genauer beschrieben werden.

Datenaufzeichnung

Betrachten wir zuerst den Aspekt der Datenaufzeichnung. Fortschritte in Hardwaretechnik, Netzwerktechnologien und Datenverarbeitungsmethoden ermöglichen die Aufzeichnung und Verarbeitung von sehr heterogenen bzw. multimodalen Daten (siehe z.B. Di Mitri, Schneider, Specht & Drachsler, 2018). Gerade in digitalen Lernumgebungen können und werden viele Daten aufgezeichnet, wie z.B. der Zeitpunkt des Einloggens (z.B. Smarr & Schirmer, 2018). Heutige Sensoren können uns aber nicht nur kontextuelle Daten wie Uhrzeit, Temperatur, Luftfeuchtigkeit oder Standort liefern, sondern auch sehr persönliche Daten über das menschliche Verhalten. Letztere lassen sich in verhaltensbezogene („Klicks“, „Likes“, Kommentare, Verweildauer auf einer Seite usw.) und physiologische Daten (z.B. Herzfrequenz, Hauttemperatur, elektrodermale Aktivität, Gehirnaktivität usw.) unterteilen. Diese Daten eignen sich besonders gut, um Prozesse abzubilden, da sie mit einer hohen Abtastrate aufgezeichnet werden können. Z.B. kann in einem digitalen Lernmanagementsystem jede Interaktion der Lernenden aufgezeichnet werden, um so ein umfangreicheres Bild über den Lernprozess zu liefern. So konnte in einer Studie von Li, Baker & Warschauer (2020) mittels herkömmlicher subjektiver Fragebogendaten und zusätzlichen Interaktionsdaten von Lernenden in einem Lernmanagementsystem die Leistung in einem Kurs besser vorhergesagt werden als nur mittels Fragebogendaten (für eine Übersicht siehe z.B. Baker et al., 2020). Appel und Kolleg_innen (2021) andererseits verwendeten unterschiedliche Augenbewegungsparameter (z.B. Sakkaden, „Blinzler“, Fixationen), die mit einem Eye-Tracker aufgezeichnet wurden, um die kognitive Belastung von Lernenden in einer spiel-basierten Simulation zu bestimmen.

Die jüngsten Fortschritte in der Sensortechnologie ermöglichen die Verfolgung des menschlichen Verhaltens in verschiedenen Situationen und Kontexten. So ist die Verwendung physiologischer Sensoren zur Verfolgung motorischer Aktionen und zur Rückmeldung über die körperliche Aktivität für viele Menschen heute Teil ihres Alltags (für eine Übersicht siehe z.B. Gal, May, van Overmeeren, Simons & Monninkhof, 2018). Die Fortschritte in der Sensortechnologie eröffnen neue Möglichkeiten zur Untersuchung von Lernprozessen auf einer feingranularen Ebene (z.B. Nebel & Ninaus, 2019). In (hoch-)schulischen Lernkontexten ist die Verwendung von physiologischen und verhaltensbezogenen Daten für die Aufzeichnung oder Optimierung von Lernaktivitäten noch selten anzutreffen, insbesondere bezogen auf Personalisierung oder Anpassungen von Lernaufgaben in (nahezu) Echtzeit (z.B. Fortenbacher, Ninaus, Yun, Helbig & Moeller, 2019). Eine wachsende Zahl von Studien zeigt jedoch, dass physiologische und verhaltensbezogene Daten der Lernenden wertvoll für die Generierung von Nutzermodellen sind und sich darüber die Lernergebnisse verbessern lassen (für einen Überblick siehe z.B. Schneider et al., 2015). Zentral für diese Erkenntnis ist, dass physiologische und verhaltensbezogene Daten in der Lage sind (Lern-)Prozesse aufzuzeichnen und abzubilden.

Im Vergleich zu herkömmlichen Punktwerten, Schulnoten oder Leistungsdaten die nach Absolvierung einer Lernaufgabe oder einer diagnostischen Aufgabe vorliegen, können die oben angesprochenen kontinuierlich aufgezeichneten physiologischen und verhaltensbezogenen Daten einen tieferen Einblick in die kognitiven, emotionalen und motivationalen Prozesse der Lernenden ermöglichen.

Auch wenn die reine Aufzeichnung der Daten automatisch und somit rein maschinell erfolgt, spielt der Mensch als Entscheidungsträger_in hier eine entscheidende Rolle: Die Auswahl von geeigneten Sensoren und Metriken, die für den jeweiligen Lernkontext als vielversprechend zu erachten sind, die Wahl der aufzuzeichnenden Daten und die Implementation der Hard- und Software-Architektur sind zentral für die Datenaufzeichnung (vgl. Di Mitri et al., 2018). Diese Aspekte erfordern Expertise aus unterschiedlichsten Disziplinen, wie Computerwissenschaften, Psychologie und Pädagogik, d.h., um ein effizientes Vorgehen zu ermöglichen, muss die Expertise unterschiedlicher Disziplinen eingebracht werden. Andernfalls würde unnötiger Mehraufwand entstehen, indem z.B. unnötige Sensoren verwendet und somit überflüssige Daten aufgezeichnet werden. Es muss in diesem Zusammenhang jedoch zusätzlich angemerkt werden, dass ohne die Zusammenarbeit unterschiedlicher Disziplinen KI-gestützte Lernsysteme oftmals gar nicht erst realisiert werden könnten, da verschiedenste Kompetenzen hierfür unabdingbar sind.

Ein weiterer Aspekt, der im Kontext der Datenaufzeichnung zu berücksichtigen ist und sich an das vorangegangene Argument des effizienten Vorgehens anschließt, ist der nachhaltige, verantwortungsvolle und ethische Umgang mit Daten (für eine umfangreiche Diskussion zum Thema Ethik siehe Hakimi, Eynon & Murphy, 2021). Angelehnt an den Verhaltenskodex für Trusted Learning Analytics von Hansen, Rensing, Herrmann und Drachsler (2020) muss der Umgang mit Daten bzw. Datenaufzeichnungen und deren Verwendung auf transparente Art und Weise geschehen und an die relevanten Interessengruppen verständlich vermittelt werden. Zudem gilt das Prinzip der Datensparsamkeit, d.h. es sollen nur jene Daten aufgezeichnet werden bzw. nur Sensoren verwendet werden, die das Pozential haben, den Lernprozess besser verständlich zu machen. Im Optimalfall können die aufgezeichneten Daten dafür genutzt werden, um sogar die Lernprozesse zu verbessern. Die Auswahl der aufzuzeichnenden Daten und verwendeten Sensoren muss über etablierte theoretisch fundierte Zugänge erfolgen. Zudem können und sollen diese Entscheidungen nicht von einer Maschine getroffen werden, sondern erfordern diszplinübergreifende Zusammenarbeit aus Anwendung (z.B. Therapeut_innen, Lehrer_innen) und Forschung (z.B. Fachdidaktiken, Pädagogik, Psychologie).

Mustererkennung

Die Auswahl der Sensoren sowie die Festlegung der aufzuzeichnenden Daten und Metriken führt über in den nächsten Schritt in ML- bzw. KI-gestützten Lernsystemen. Es ist unwahrscheinlich, Lernprozesse über einzelne Datenpunkte (z.B. Schulnoten, Klausurnoten, subjektive Befragungen, Summenscores auf E-Learning Plattformen, etc.) abbilden und erklären zu können. Die Aufzeichnung von zahlreichen Daten, um den Lernprozess besser zu verstehen, ist notwendig, da der Prozess des Lernens nicht nur komplex, sondern auch dynamisch ist. Eine zunehmende Anzahl an Daten und Metriken erschwert jedoch die Interpretierbarkeit, da die menschliche Wahrnehmung und Verarbeitungskapazität nicht in der Lage ist, zahlreiche Datenquellen zeitgleich zu überwachen (z.B. Interaktionsdaten von über 200 Studierenden die ein Lernmanagementsystem benutzen) und dabei auch noch Muster zu erkennen (z.B. Studierende mit Lernproblemen zu identifizieren). Daher steht im Zentrum des nächsten Schrittes die Identifikation von Mustern in den Daten mithilfe von ML-Methoden. Dieser ist daher direkt mit dem vorhergehenden Schritt der Datenaufzeichnung bzw. Selektion (potenziell) relevanter Daten verzahnt, denn um aus den zahlreichen Daten und Metriken relevante Erkenntnisse abzuleiten, müssen aus den aufgezeichneten Daten jene Daten bestimmt werden, die (maßgeblich) zum Erkenntnisgewinn beitragen. So wird versucht, einen Bezug zwischen unterschiedlichen Teilen der Daten (z.B. Motivation, Interaktionsdauer mit bestimmtem didaktischem Inhalt) und einer Zielvariable (z.B. Lernerfolg) herzustellen.

So konnten beispielsweise Brandl und Kolleg_innen (2021) in einer Simulation zum kollaborativen Diagnostizieren von Krankheiten mittels Interaktionsdaten mit sehr hoher Wahrscheinlichkeit vorhersagen, ob die im späteren Verlauf zu stellende Diagnose falsch oder korrekt werden wird. In diesem Fall wurde jeder Klick bzw. jede Interaktion in der Simulation aufgezeichnet und nach Aktivitätsarten kodiert. Die unterschiedlichen Aktivitäten (z.B. Befunde Sammeln, Befunde Teilen, Hypothesen Teilen) wurden hinsichtlich ihrer Dauer und Abfolge protokolliert und zur Vorhersage einer korrekten oder inkorrekten Diagnose des/der Lernenden herangezogen. Außerdem konnte über den gewählten ML-Algorithmus herausgefunden werden, welche Aktivitäten den größten Einfluss auf korrekte oder inkorrekte Diagnosen hatten. Auf diese Weise konnten auch wichtige theoretische Erkenntnisse gewonnen werden.

In einer anderen Studie wurde versucht, mithilfe von ML-Verfahren herauszufinden, welche Intervention ein/e Lerner_in erhalten hat, um Aufschlüsse über zugrundeliegende Mechanismen bzw. Unterschiede der Interventionen zu erhalten. So zeigten Ninaus und Kolleg_innen (2019) mithilfe von automatisierter Gesichtsemotionsdetektion und ML, dass sich Personen, die eine spielbasierte im Vergleich zu einer nicht-spielbasierten Mathematiklernaufgabe bearbeiteten, in der Anzahl und dem Ausmaß ihrer positiven und negativen Emotionen unterschieden. Dadurch konnte die Rolle von Emotionen im Bereich des spielbasierten Lernens verdeutlicht werden. Der verwendete ML-Algorithmus konnte zwar basierend auf den Daten der automatisierten Gesichtsemotionsdetektion unterscheiden, ob Lernende die spiel- oder nicht-spielbasierte Lernaufgabe erhielten, wie groß der Einfluss der einzelnen Emotionen für die erfolgreiche Vorhersage jedoch war, konnte daraus nicht abgeleitet werden.

In beiden der eben genannten Studien wurde ML verwendet, um Muster in den aufgezeichneten Daten zu identifizieren. Es wird jedoch klar, dass sich sowohl deren Zugänge als auch die Interpretierbarkeit der Ergebnisse deutlich voneinander unterscheiden. Dies kann teilweise auf den jeweils verwendeten ML-Algorithmus (Random Forest Modell vs. Support Vector Machine) und dessen Ausgestaltung zurückgeführt werden. Die Auswahl und Entscheidung für oder gegen einen bestimmten ML-Algorithmus ist ein weiterer zentraler Aspekt in KI-gestützten Lernsystemen, der nicht nur datengetrieben, sondern auch theoriegeleitet erfolgen kann.

Eine weitere wichtige Unterscheidung im Bereich des ML ist der Unterschied zwischen sogenannten supervised ML-Algorithmen und unsupervised ML-Algorithmen. Bei Ersteren geht es primär darum, eine Beziehung zwischen unterschiedlichen Teilen der Daten (z.B. unterschiedlichen Aktivitäten in einer Simulation) und einer Zielvariablen (z.B. korrekte/inkorrekte Antwort; vgl. Brandl et al., 2021) herzustellen. Bei unsupervised ML-Verfahren steht die explorative Datenanalyse und das Clustering von Daten im Vordergrund. Üblicherweise gibt es keine konkrete Zielvariable oder abhängige Variable, wie etwa der Studienerfolg, sondern es wird stattdessen u.a. versucht, aus einer Reihe von vorhandenen Daten Subgruppen zu identifizieren (vgl. Ninaus et al., 2019). Die so entstehenden Subgruppen bzw. Cluster können dann beispielsweise für weiterführende Analysen benutzt werden. Huijsmans, Kleemans, van der Ven und Kroesbergen (2020) verwendeten beispielsweise latente Profilanalysen bzw. Finite Mixture Models (z.B. Hickendorff, Edelsbrunner, McMullen, Schneider & Trezise, 2018), um Subgruppen von Schüler_innen mit unterschiedlichen mathematischen Kompetenzen zu identifizieren. Diese identifizierten Subgruppen von Schüler_innen wurden anschließend anhand ihrer kognitiven Fähigkeiten verglichen. Dieser Zugang erlaubt beispielsweise eine stärkere Berücksichtigung von individuellen Unterschieden und kann so dazu beitragen, theoretische Modelle des Lernens zu erweitern.

Für bestimmte (psychologische) Mechanismen könnte jedoch auch der Fall eintreten, dass das untersuchte Phänomen zu komplex ist, um es in einem von Menschen verstehbaren Modell abzubilden. ML und KI können hier jedoch einen wichtigen Beitrag für Forschung und Anwendung leisten. Yarkoni & Westfall (2017) beschreiben für das Feld der Psychologie, dass man in vielen Bereichen zwischen zwei Strategien wählen müsse: (a) der Entwicklung komplexer Modelle, die zwar die gewünschten Ergebnisse genau vorhersagen können, die sich jedoch nicht darum kümmern, wie dieses Ziel erreicht wird oder (b) der Entwicklung einfacher Modelle, die theoretisch elegant erscheinen, aber tatsächliches menschliches Verhalten nur sehr begrenzt vorhersagen können. Im konkreten Fall von (a) könnte man mithilfe von ML bzw. KI zwar die Abbruchquoten beim Studium oder den Lernerfolg für einen Kurs vorhersagen, jedoch könnten dabei die zugrundeliegenden Mechanismen verborgen bleiben. Im Fall von (b) würde sich zwar ein einfaches erklärbares Modell ergeben (z.B. der Zusammenhang zwischen Studienleistung und exekutiven Funktionen), jedoch wäre dessen Prädiktionswert für menschliches Verhalten (im Lernkontext) nur sehr beschränkt. Beide Optionen haben dementsprechend ihre Vor- bzw. Nachteile und es muss jeweils entschieden werden, ob eine erklärungsorientierte Strategie oder eine vorhersageorientierte Strategie bevorzugt wird (für eine umfangreiche Diskussion siehe Yarkoni & Westfall, 2017).

Allerdings sollte erwähnt werden, dass ein stärkerer Fokus auf vorhersageorientierten Strategien nicht ausschließt, ebenso zur Erweiterung oder sogar Entwicklung neuer Theorien des Lehrens und Lernens beitragen zu können. Auch wenn manche Aspekte der Vorhersagen sich bei bestimmten Verfahren der KI und ML hinter einer „Black Box“ verbergen, kann auch die Vorhersage oder Klassifizierbarkeit an sich Aufschluss über theoretische Grundlagen liefern (z.B. im Bereich der Konstruktvalidierung; vgl. Hilbert et al., 2021). Zudem geht es in den Bereichen des interpretierbaren ML genau darum, diese Black Boxen zu öffnen, um die Entscheidungsgrundlagen für eine Vorhersage oder Klassifikation besser zu verstehen (Hilbert et al., 2021). Der relativ neue Ansatz des interpretierbaren ML setzt an der Kritik des herkömmlichen ML an, dass nämlich lediglich Vorhersagen bereitgestellt werden, und legt Wert darauf, die inneren Abläufe von ML-Modellen besser zu verstehen sowie den Einfluss von Daten und deren Interaktionen zu quantifizieren (für eine tiefere methodische Diskussion siehe Hilbert et al., 2021). Natürlich ist dies gerade in der Lehr-Lernforschung von zentraler Bedeutung, da es hier beispielsweise wesentlich ist herauszufinden, welche individuellen Variablen oder Aspekte einer Intervention den Lernerfolg positiv oder negativ beeinflussen, was wiederum u.a. die Anpassung einer digitalen Lernumgebung informieren und beeinflussen kann.

Adaptivität in digitalen Lernumgebungen

Nach der Auswahl relevanter Sensoren bzw. Daten, deren Messung sowie der Erkennung von Mustern und Strukturen in den aufgezeichneten Daten stellt sich die Frage, welche Möglichkeiten sich hieraus für die entsprechenden Lernumgebungen konkret ergeben. Eine entscheidende und potentiell lernwirksame Möglichkeit ist die Personalisierung von Lernumgebungen.

Auf Basis der Messung der ausgewählten Daten bzw. Sensoren und der Erkennung von Mustern oder Sequenzen in eben diesen Daten können Personalisierungen von Lernumgebungen und der darin enthaltenen Unterstützungsmaßnahmen vorgenommen werden (Bernacki, Greene & Lobczowski, 2021). Diese Personalisierung von Lernen und Lernumgebungen wird häufig auch mit dem Begriff der Adaptivität umschrieben. Adaptivität wird als Ansatz im Lehr-Lernkontext bezeichnet, der den Lernenden genau die Lernerfahrung und Unterstützung bereitstellt, die Lernende in einer bestimmten Situation benötigen, um erfolgreich das angestrebte Lernziel zu erreichen (Plass & Pawar, 2020). Unterschiedliche Lernpfade sowie individualisierte Unterstützungsmaßnahmen sind somit denkbar, die auf Basis der aktuellen Lernleistung zur Verfügung gestellt werden können. Obwohl der Forschungsstand zum personalisierten Lernen in adaptiven Lernumgebungen als diffus und weitestgehend auf korrelativen Studien beruhend beschrieben werden kann, zeigt sich dennoch, dass personalisiertes Lernen in adaptiven Lernumgebungen einen positiven Einfluss auf den Lernerfolg haben kann (für Übersichtsartikel siehe Aleven, McLaughlin, Glenn & Koedinger, 2016; Bernacki et al., 2021; Ninaus & Nebel, 2021). Dies unterstreicht das Potenzial von adaptiven Lernumgebungen, einen Mehrwert in Bezug auf Lehren und Lernen darzustellen.

Neben diesen generell vielversprechenden Befunden, stellt sich die Frage, welche Aspekte im Rahmen von Lernumgebungen adaptiv gestaltet werden können. Eine Übersicht über mögliche (allerdings nicht erschöpfende) Optionen zur Umsetzung von Adaptivität in digitalen Lernumgebungen kann Tabelle 1 entnommen werden.

Tabelle 1 Mögliche Optionen zur Umsetzung von Adaptivität in digitalen Lernumgebungen

Bei der Umsetzung von Adaptivität kann zunächst zwischen Makro- und Mikro-Adaptation unterschieden werden (Plass & Pawar, 2020): Die Makro-Ebene bezieht sich auf generelle Kategorien des gesamten Lernkontextes, in dem Lernende agieren. Zum einen können Makro-Adaptationen die zentrale Lernaktivität betreffen, indem aggregierte oder weniger häufig auftretende Events an die Lernenden rückgemeldet und somit Informationen auf einer Meta-Ebene bereitgestellt werden. Ein Beispiel ist die Empfehlung von Lernressourcen am Ende einer Lerneinheit (Sevarac, Devedzic & Jovanovic, 2012). Zum anderen können Makro-Adaptationen auch am breiteren Kontext des Lernprozesses vorgenommen werden. Hierunter ist die Vorbereitung auf eine bestimmte Lernaktivität zu verstehen, beispielsweise in Form des Aufbaus von Vorwissen zur erfolgreichen Ausführung der Lernaktivität (Plass & Pawar, 2020). Mah und Ifenthaler (2018) setzten beispielsweise ein personalisiertes Programm auf Basis von Learning Analytics ein, um Studierende des ersten Semesters auf bestimmte Kompetenzlücken aufmerksam zu machen und Empfehlungen zur Stärkung von wissenschaftlichen Kompetenzen bereitzustellen. Auch adaptives Testen zur Leistungserhebung und personalisierte Empfehlungen auf Basis von kursübergreifenden Verläufen von Studierenden (Wu & Wu, 2020) sind im breiteren Kontext des Lernprozesses auf der Makro-Ebene denkbar (Plass & Pawar, 2020).

Bei Adaptation auf einem Mikro-Level werden die momentan bearbeitete Lernaufgabe und die Lernumgebung an die Bedürfnisse der Lernenden angepasst (Plass & Pawar, 2020). Hierbei ist oftmals eine formative Messung bestimmter Variablen während des Lernprozesses notwendig, die eine ad-hoc Adaptation während des Lernprozesses ermöglicht. Generell können die oben genannten Aspekte – die zentrale Lernaktivität sowie der breitere Lernkontext – auch im Rahmen einer Mikro-Adaptation in den Blick genommen werden. Der Fokus der meisten Realisierungen von Mikro-Adaptationen liegt allerdings auf der zentralen Lernaktivität. Betrachtet man nun die Frage, auf welche Art und Weise Mikro-Adaptivität in Lernumgebungen hergestellt werden kann, stechen vor allem Feedback-Ansätze (Hattie & Timperley, 2007) und Scaffolding-Ansätze (Belland, Walker, Kim & Lefler, 2017) heraus, die u.a. von fachspezifischen Expert_innen (z.B. Fachdidaktiker_innen, Pädagog_innen, Psycholog_innen) entwickelt werden.

Adaptives Feedback

Feedback-Modelle beziehen sich oftmals auf die Unterscheidung verschiedener Ebenen, die durch die jeweilige Rückmeldung adressiert werden. Konkret kann zwischen Feedback auf Aufgabenebene, auf Prozessebene, auf Selbstregulationsebene und auf der Ebene des Selbst (einer persönlichen Ebene, z.B. in Form von Lob) unterschieden werden (Hattie & Timperley, 2007). Feedback auf Aufgabenebene stellt den Lernenden Informationen darüber bereit, ob eine Aufgabe korrekt durchgeführt oder beantwortet wurde. Diese Art des Feedbacks ist vor allem bei der Bearbeitung weniger komplexer Aufgaben lernwirksam. Bei komplexeren Aufgaben hingegen benötigen Lernende Rückmeldungen auf der Ebene der Lernprozesse und der Selbstregulation. Lernprozessbezogenes Feedback adressiert die hinter einer Aufgabe stehenden Schritte, die für eine erfolgreiche Ausführung der Lernaufgabe notwendig sind. Selbstregulationsbezogenes Feedback bezieht sich auf die Überwachung und die Steuerung des Lernprozesses (Hattie & Timperley, 2007; Wisniewski, Zierer & Hattie, 2020). Adaptives Feedback auf den Ebenen des Lernprozesses und der Selbstregulation kann den Lernenden helfen, ein Verständnis über ihren aktuellen Wissensstand zu entwickeln und die Differenzen zu einem optimalen Wissensstand zu erkennen. Außerdem kann eine fehlerhafte Aufgabenbearbeitung direkt zurückgemeldet werden (Bimba, Idris, Al-Hunaiyyan, Mahmud & Shuib, 2017; Narciss et al., 2014).

Während adaptives Feedback auf Aufgabenebene in Form von Information über die Korrektheit einer Aufgabe („knowledge-of-result“ oder „knowledge-of-correct-result“ Feedback) häufig in digitalen Lernumgebungen eingesetzt und oftmals als Standard-Feature realisiert wird, sind Implementationen von adaptiven Feedback auf Lernprozessebene oder Selbstregulationsebene wesentlich aufwändiger zu realisieren. Im Rahmen der Forschung zu Intelligenten Tutoriellen Systemen wurden verschiedene Ansätze zur Analyse von geschlossenen Antwortformaten und Logfiles erprobt (Graesser, Hu & Sottilare, 2018). Da die Bewältigung komplexer Aufgaben aber oftmals auch Textproduktionen durch die Lernenden erfordert, ist die Verwendung bestimmter KI-basierter Ansätze vielversprechend: KI-basierte Ansätze, z.B. mittels Natural Language Processing (ein Teilgebiet der KI, welches Maschinen ermöglichen soll, menschliche Sprache zu verstehen; siehe auch Abbildung 1), können einen Nutzen bringen, indem sie offene Antworten von Lernenden automatisch analysieren, Muster erkennen und somit bestimmte Feedbackelemente je nach deren Passung adaptiv rückmelden können. Zhu und Kollegen.(2017) sowie Zhu, Liu und Lee (2020) konnten beispielsweise zeigen, dass KI-basiertes adaptives Feedback auf die Begründungen von Lernenden im Rahmen einer Aufgabe zum Thema Klimawandel dazu geführt hat, dass Lernende die Qualität ihrer Begründungen in Überarbeitungsschleifen verbesserten. Außerdem zeigten Sailer et al. (2022) auf, dass mittels KI-basiertem, adaptivem und prozessorientiertem Feedback die Qualität der Begründungen von Lehramtsstudierenden im Rahmen einer Simulation zur Förderung von Diagnosekompetenzen verbessert werden konnte.

Adaptives Scaffolding

Scaffolding ist ein Ansatz der häufig im Kontext problemorientierten Lernens verwendet wird. Die Grundidee ist dabei, Lernenden bei ihren Problemlösungen eine Hilfestellung an die Hand zu geben, die es ihnen ermöglicht, Aufgaben zu bearbeiten, die ohne zusätzliche Unterstützung, nur schwer zu bewältigen wären. Vergleichbar mit Stützrädern beim Erlernen von Fahrradfahren bei Kleinkindern, werden Lernende bei ihren Lernaktivitäten mit dem Ziel unterstützt, deren Wissens- und Kompetenzerwerb zu fördern (Belland et al., 2017; Reiser & Tabak, 2014). Dies kann beispielsweise durch kognitive, meta-kognitive, sozial-kognitive oder affektiv-motivationale Scaffolds realisiert werden. Während kognitive Scaffolds den Lerner z.B. mittels Prompts dazu auffordern, einen Zusammenhang genauer zu beschreiben, zielen meta-kognitive Prompts auf die Selbstregulation der Lernenden ab, indem sie z.B. zur Reflexion über einen Sachverhalt auffordern (siehe Belland et al., 2017). Sozial-kognitive Scaffolds sind im Kontext des computerunterstützten kollaborativen Lernens zu finden. Diese häufig auch als Kollaborationsskripts bezeichneten Scaffolds unterstützen Lernende dadurch, dass ihre Zusammenarbeit systematisch strukturiert wird (siehe Radkowitsch, Vogel & Fischer, 2020). Affektiv-motivationale Scaffolds zielen auf die Förderung von motivationalen Prozessen und Selbstwirksamkeit ab, um beispielsweise die Persistenz während der Lösung von Problemen zu fördern (Schrader & Bastiaens, 2012). Scaffolding kann auf sehr verschiedene Arten umgesetzt werden. Sowohl Umsetzungen durch eine Lehrperson als auch Umsetzungen im Rahmen einer digitalen Lernumgebung sind denkbar (Reiser & Tabak, 2014).

In der Literatur zum Scaffolding wird die Idee des schrittweisen Hinzufügens oder Ausschleichens von Unterstützungsmaßnahmen (Fading-In und Fading-Out) immer wieder thematisiert. Manche Autoren sehen das Ausschleichen der Unterstützung sogar als Voraussetzung dafür, überhaupt von Scaffolding sprechen zu können (siehe Pea, 2004). Die Debatte, wann und ob Unterstützungsmaßnahmen schrittweise hinzugenommen oder entfernt werden sollten, steht im Zusammenhang damit, dass der Unterstützungsbedarf je nach aktueller Performanz oder motivationalem Befinden von Lernenden variieren kann. Folglich könnte adaptives Scaffolding ein vielversprechender Ansatz sein, um Unterstützungen an den jeweiligen Bedürfnissen der Lernenden auszurichten (Radkowitsch, Sailer, Schmidmaier, Fischer & Fischer, 2021).

Während die oben beschriebenen Formen von Scaffolding primär in der Literatur beforscht wurden, liegen Unterstützungsmaßnahmen, die an der Komplexität der Lernumgebung oder der Salienz bestimmter Aspekte der Lernumgebung ansetzen, weniger stark im Fokus der Forschung. Diese Form der indirekten Unterstützung kann als repräsentationales Scaffolding bezeichnet werden (Fischer et al., 2022). Die Verwendung von repräsentationalen Scaffolds ist ein vielversprechender Ansatz, da durch sie die Komplexität der Lernumgebung und die Salienz ihrer lernrelevanten Aspekte systematisch variiert werden kann (Chernikova et al., 2020; Stadler, Niepel & Greiff, 2019), um Lernende gemäß ihrem jeweiligen Wissens- und Kompetenzstand zur Problemlösung zu befähigen (z.B. Stadler, Fischer & Greiff, 2019). Diese eher verstecktere Form der Unterstützung setzt somit an konkreten Features der Lernumgebung an oder betont diese durch Hinweisreize (Fischer et al., 2022). Denkbar ist hier etwa, die Handlungsmöglichkeiten von Lernenden einzuschränken und somit die Schwierigkeit einer Aufgabe zu verringern oder einen nächsten günstigen Schritt in einem Problemlöseprozess grafisch hervorzuheben. KI-Methoden scheinen hier besonders vielversprechend, bestimmte Abfolgen oder Muster von Handlungsfolgen automatisch zu erkennen und auf diese Weise eine Adaptation auf der Ebene der Lernumgebung zu ermöglichen.

Entscheidungsträger_innen in der Adaptation digitaler Lernumgebungen

Die Entscheidungen über die Notwendigkeit und Art der Umsetzung der unterschiedlichen Adaptationen in digitalen Lernumgebungen können von unterschiedlichen Akteuren in digitalen Lernumgebungen getroffen und folglich initiiert werden: Beim adaptiven Feedback sowie auch bei einigen Formen des adaptiven Scaffoldings werden Entscheidungen über eine Personalisierung eines Feedback-Textes oder einer Unterstützungsmaßnahme häufig direkt durch die digitale Lernumgebung selbst vorgenommen, so beispielsweise bei der Aktivierung vordefinierter Feedback-Blöcke auf Basis der KI-gestützten Erkennung bestimmter Entitäten in einem geschriebenen Text (siehe Sailer et al., 2022).

Durchaus denkbar ist allerdings auch, die Entscheidung über eine Adaptation den Lehrpersonen zu überlassen und diese wiederum mit Informationen über die KI-basierte Erkennung bestimmter Muster zu informieren sowie Vorschläge zur adaptiven Unterstützung zu liefern. Diese Umsetzung, die häufig unter dem Begriff Teacher Dashboard gefasst wird, hat zum Ziel, Lehrpersonen bei ihren instruktionsbezogenen Entscheidungen zu unterstützen (siehe Wiedbusch et al., 2021).

Eine weitere Möglichkeit ist, den Lernenden selbst die Entscheidung über eine Personalisierung zu überlassen. Im Gegensatz zu Entscheidungen über eine Adaptation, die vom System oder von einer Lehrperson getroffen werden, haben es die Lernenden bei einer solchen Umsetzung selbst in der Hand, die auf Basis ihrer eigenen Handlungen vorgeschlagenen Anpassungen der Lernumgebung anzunehmen oder zu verwerfen (siehe Plass & Pawar, 2020).

Diskussion

Der vorliegende Beitrag zeigt die Komplexität der Einbindung KI-gestützter Systeme auf und deutet darüber hinaus darauf hin, dass es in verschiedenen Stadien dieses Prozesses der Einbindung von KI eine Fülle an Entscheidungen zu treffen gilt. Diese reichen vom Prozess der Datenaufzeichnung, der Mustererkennung bis hin zur Umsetzung von Adaptivität in digitalen Lernumgebungen.

Die große Bandbreite an Möglichkeiten innerhalb der beschriebenen Schritten erschwert es auch, Antworten auf generelle Fragen zur Wirksamkeit von KI beim Lernen zu geben. Eine differenzierte Betrachtung ist hierbei ratsam, die den unterschiedlichen Stellschrauben in den unterschiedlichen Phasen der Implementation von KI gerecht wird. Somit wären die Fragen, welche Formen der Datenaufzeichnungen für welche Formen von Mustererkennung besonders geeignet sind und, welche Formen der Mustererkennung welche Formen der Adaptation von Lernumgebungen ermöglichen, auf Basis dieses Beitrags plausibler.

Es muss hier angemerkt werden, dass der Forschungsbedarf für KI-gestützte Lernsysteme im Ganzen sowie für einzelne Schritten in solch einem Prozess als sehr hoch einzuschätzen ist. Digitale Lernumgebungen werden komplexer und liefern immer mehr Daten, die zwar das Potenzial haben, Lernprozesse besser abzubilden, jedoch ohne maschinelle Unterstützung kaum effizient aufbereitet und verarbeitet werden können.

Auf Ebene der Datenaufzeichnung ist jedoch noch viel Forschungsarbeit notwendig, um die Datenselektion nicht nur daten- sondern auch theoriegeleitet zu unterstützen. In diesem Zusammenhang soll hier nochmal kurz auf den Verhaltenskodex für Trusted Learning Analytics von Hansen und Kolleg_innen (2020) hingewiesen werden, der den nachhaltigen, verantwortungsvollen und ethischen Umgang mit Daten fordert. Es gibt bisher umfangreiche zusammenfassende Arbeiten, die Zusammenhänge zwischen bestimmten Prozessdaten und lernrelevanten kognitiven, motivationalen und emotional Variablen aufzeigen (z.B. Alemdag & Cagiltay, 2018; Janssen et al., 2021; Wu, Huang & Hwang, 2016). Es ist aber auch eindeutig zu sehen, dass die Relevanz bestimmter Metriken und Daten zur Messung lernrelevanter Variablen von vielen Faktoren abhängen kann. So zeigen mehrere Studien, dass individuelle und kontextuelle Faktoren die Relevanz bestimmter Metriken beeinflussen können (vgl. Baker et al., 2020; Greipl, Bernecker & Ninaus, 2021). Entsprechend besteht großer Forschungsbedarf, die Randbedingungen der Relevanz solcher lernrelevanter Variablen und unterschiedlicher Lernkontexte besser zu verstehen.

Auch in den Bereichen der Mustererkennung ergibt sich weiterer Forschungsbedarf – insbesondere im Bereich der Interpretierbarkeit und Reproduzierbarkeit von ML (Hilbert et al., 2021). Beispielsweise sind Informationen über den Zusammenhang zwischen einzelnen Metriken bzw. Daten aus digitalen Lernumgebungen und dem Lernerfolg essenziell, um einerseits den Lernprozess besser zu verstehen und andererseits die richtigen Anpassungen für die Lernenden vorzunehmen. In diesem Zusammenhang kann uns interpretierbares ML dabei unterstützen, lernrelevante Muster in den Daten zu identifizieren. Die gewonnen Erkenntnisse können dann dazu genutzt werden, neue Modelle des Lernens (mit digitalen Technologien) zu entwickeln bzw. bestehende Modelle zu erweitern. Viele etablierte Modelle des Lernens sind bisher nicht in der Lage, die neuen technischen Möglichkeiten zu berücksichtigen, da sie in einer Zeit entwickelt wurden, in der neue Technologien und Zugänge nicht präsent waren.

Bezogen auf die Adaptivität in digitalen Lernumgebungen gibt es ebenfalls Forschungsbedarf: Auch wenn erste zusammenfassende Arbeiten das lernförderliche Potenzial von Personalisierungen betonen (Aleven et al., 2016; Bernacki et al., 2021; Ninaus & Nebel, 2021), bleibt die Frage nach der Art der Umsetzung von Adaptivität im Zusammenspiel mit der Art der Lernaufgabe sowie mit Merkmalen der Lernenden noch weitestgehend unbeantwortet. Erste Hinweise zeigen Forschungsarbeiten, die das Potenzial von KI-basierten Adaptationen besonders beim Erlernen komplexerer Fähigkeiten sehen (siehe Sailer et al., 2022). Einen weiteren wichtigen Aspekt stellt die Erprobung von KI-Systemen im Feld dar. Aktuell sind KI-gestützte Systeme primär im Forschungskontext anzutreffen und nicht in (hoch-)schulischen Lernkontexten im Feld zu finden. Hier kommen Aspekte der Akzeptanz und des Vertrauens in KI-gestützte Systeme ins Spiel, die miteinbezogen werden müssen (Shin, 2021).

Der Einbezug von Lernenden, Lehrpersonen, Lernbegleitern und Lerntherapeuten sowohl bei der Erstellung wie auch bei der Implementation von KI-gestützten Systemen hängt mit der Frage des Vertrauens und der Akzeptanz in diese Systeme zusammen. Unserer Meinung nach steht die Zusammenarbeit von Mensch und Maschine im Vordergrund und ist zentral für die Umsetzung erfolgreicher KI-gestützter Lernsysteme. Wie in diesem Beitrag ausgeführt, kommt dem Menschen im Prozess der Implementation von KI eine entscheidende Rolle zu: zum einen als Entscheidungsträger_in in den Prozessen der Datenaufzeichnung, Mustererkennung und Adaptation, zum anderen aber stellenweise auch als Entscheidungsträger_in im eigentlichen Lernprozess. KI-basierte Systeme können Lehrpersonen auf Unterstützungsbedarf hinweisen, müssen aber nicht das letzte Wort über dessen Umsetzung haben. KI-basierte Systeme können Lernende direkt mit Vorschlägen versorgen oder auch transparent darstellen, auf welcher Basis Rückmeldungen erfolgen.

Zusammenfassend zeigt sich die nicht substituierbare Rolle des Menschen in KI-basierten Systemen. Hybride Systeme, die die Beziehung von Mensch und Maschine im Blick behalten und auch die Beziehungen von Lernenden und Lehrpersonen vor dem Hintergrund der Nutzung von KI mit berücksichtigen, sind aus unserer Sicht besonders vielversprechend (für Überblicksartikel siehe z.B. Quin, 2017; Spilt, Koomen & Thijs, 2011).

Ein frühzeitiges Engagement unterschiedlicher Disziplinen ist notwendig, um solche Systeme nicht nur aus technischer Perspektive voranzutreiben, sondern auch pädagogische, psychologische und didaktische Erkenntnisse in die Entwicklung einfließen zu lassen. Zudem muss auch der (hoch-)schulische Alltag mit solchen Systemen abgestimmt und erprobt werden, da diese eine enge Zusammenarbeit mit Lehrer_innen und Therapeut_innen unabdingbar machen. Entsprechend sehen wir nur einen Weg, um die "Digitalisierungswelle" und die damit einhergehenden Fortschritte im Bereich von KI und ML für die Verbesserung von Lehr- und Lernprozessen nutzbar zu machen: eine enge Zusammenarbeit unterschiedlicher Disziplinen.

Limitationen

KI-gestützte Lernsysteme sind oftmals noch nicht ausgereift und bisher lassen sich diese Systeme auch vorwiegend nur im Forschungskontext wiederfinden. Da wissenschaftliche Erkenntnisse über KI-gestützte Lernsystem noch eher spärlich sind, sollte die hier dargestellte aktuelle Perspektive als vorläufig angesehen werden. Außerdem wurde für die aktuelle Arbeit keine systematische Literaturrecherche betrieben – in diesem Zusammenhang kann auf umfassendere Überblicksartikel im Bereich des personalisierten Lernens hingewiesen werden (siehe dafür z.B. Aleven et al., 2016; Bernacki et al., 2021; Ninaus & Nebel, 2021). Wir möchten jedoch darauf hinweisen, dass der vorliegende Artikel nicht darauf abzielt, einen systematischen Überblick bereitzustellen, sondern es sollen die unterschiedlichen Schritte in einem KI-gestützten Lernsystem sowie die Rolle des Menschen darin elaboriert werden, da diese Perspektive in der Praxis oftmals fehlt. Trotz der genannten Einschränkungen hoffen wir, dass der vorliegende Artikel hilfreiche Hinweise für zukünftige interdisziplinäre Zusammenarbeit sowie deren systematische Anlage und Strukturierung liefert.

Relevanz für die Praxis

Spätestens seit der Digitalisierungsoffensive wird auch die Rolle und der Einsatz von KI und ML im Lernkontext heftig diskutiert. Es stellt sich die Frage, ob der Einsatz solcher Systeme gewinnbringend ist und welche Rolle der Mensch im durch KI unterstützten Lernprozess spielt. Der vorliegende Artikel zielt darauf ab, diesen Aspekt genauer zu beleuchten und betont die essentielle Rolle des Menschen in Entscheidungs- und Anwendungsprozessen. Die erweiterten Einblicke, die uns neue Sensoren bzw. Daten und ML ermöglichen, erlauben eine genauere Abbildung von Lernprozessen und können einerseits notwendige Theoriearbeit erleichtern (z.B. die Erfassung des genauen Zusammenspiels von affektiven Zuständen und Kognition), andererseits können für die Praxis umfangreichere Daten geliefert werden, um gezieltere Maßnahmen daraus abzuleiten. Somit können KI-gestützte Lernsysteme nicht nur die Lernenden unterstützen, sondern auch Lehrpersonen und/oder Therapeut_innen dadurch, dass Daten aufbereitet und beispielsweise über Dashboards dargestellt werden können.

Man stelle sich hierzu z.B. eine alltägliche Situation im Schulkontext vor, in der eine Lehrkraft die Lernfortschritte von zahlreichen Schüler_innen in einer digitalen Lernumgebung diagnostizieren und optimieren möchte: in einem digitalen Klassenraum sind zahlreichen Schüler_innen gleichzeitig mit einer Lernaufgabe beschäftigt. Das Learning-Management-System protokolliert die Aktivitäten der Schüler_innen und zeichnet entsprechend lernrelevante Daten auf (siehe Abb. 2 links; siehe Datenaufzeichnung).

Abbildung 2 Exemplarische Situation im Klassenzimmer, in der die Lernleistung von zahlreichen Schüler_innen diagnostiziert und adaptiv unterstützt wird.

Über ML-Algorithmen kann abgeleitet werden, ob bestimmte Schüler_innen Probleme bei der Erarbeitung einer Aufgabe haben, es zu Fehlvorstellungen gekommen ist oder die Lerninhalte nicht dem Wissensstand der Schüler_innen entsprechen (siehe Abb. 2 Mitte). Diese Information kann dann beispielsweise dazu genutzt werden, im Learning-Managment-System Anpassungen vorzunehmen (z.B. Aufgabenstellung erleichtern/erschweren oder Fehlkonzeptionen durch Scaffolds korrigieren) oder die Lehrkraft beispielsweise darüber informieren, dass bestimmte Schüler_innen zusätzliche Unterstützung benötigen oder Schüler_innen unterfordert sind (siehe Abb. 2 rechts).

Solch eine Zusammenarbeit von Mensch und Maschine im Blick zu behalten, so lässt sich zusammenfassend sagen, ist sowohl im Entwicklungsprozess wie auch im Praxiseinsatz eine notwendige Voraussetzung dafür, innovative und effektive KI-gestützte Lernsysteme erzeugen und nutzen zu können.

Wir möchten uns bei Daniela Ninaus und Johanna Vejvoda für ihre Durchsichten des Manuskripts bedanken.

Literatur

  • Alemdag, E. & Cagiltay, K. (2018). A systematic review of eye tracking research on multimedia learning. Computers & Education , 125 (June), 413–428. Elsevier. https://doi.org/10.1016/j.compedu.2018.06.023 First citation in articleCrossrefGoogle Scholar

  • Aleven, V. , McLaughlin, E. A. , Glenn, R. A. & Koedinger, K. R. (2016). Instruction based on adaptive learning technologies. In R. E. Mayer P. A. Alexander (Hrsg.), Handbook of research on learning and instruction (S.522–560). Abingdon: Routledge. https://doi.org/10.4324/9781315736419.ch24 First citation in articleGoogle Scholar

  • Appel, T. , Gerjets, P. , Hoffman, S. , Moeller, K. , Ninaus, M. , Scharinger, C. et al. (2021). Cross-task and Cross-participant Classification of Cognitive Load in an Emergency Simulation Game. IEEE Transactions on Affective Computing , 1–1. https://doi.org/10.1109/TAFFC.2021.3098237 First citation in articleCrossrefGoogle Scholar

  • Baker, R. , Xu, D. , Park, J. , Yu, R. , Li, Q. , Cung, B. et al. (2020). The benefits and caveats of using clickstream data to understand student self-regulatory behaviors: opening the black box of learning processes. International Journal of Educational Technology in Higher Education , 17 (1), 13. https://doi.org/10.1186/s41239-020-00187-1 First citation in articleCrossrefGoogle Scholar

  • Belland, B. R. , Walker, A. E. , Kim, N. J. & Lefler, M. (2017). Synthesizing Results From Empirical Research on Computer-Based Scaffolding in STEM Education: A Meta-Analysis. Review of Educational Research , 87 (2), 309–344. https://doi.org/10.3102/0034654316670999 First citation in articleCrossrefGoogle Scholar

  • Bernacki, M. L. , Greene, M. J. & Lobczowski, N. G. (2021). A Systematic Review of Research on Personalized Learning: Personalized by Whom, to What, How, and for What Purpose(s)? Educational Psychology Review , 33 (4), 1675–1715. https://doi.org/10.1007/s10648-021-09615-8 First citation in articleCrossrefGoogle Scholar

  • Bimba, A. T. , Idris, N. , Al-Hunaiyyan, A. , Mahmud, R. B. & Shuib, N. L. B. M. (2017). Adaptive feedback in computer-based learning environments: a review. Adaptive Behavior , 25 (5), 217–234. https://doi.org/10.1177/1059712317727590 First citation in articleCrossrefGoogle Scholar

  • Brandl, L. , Richters, C. , Radkowitsch, A. , Fischer, M. R. , Schmidmaier, R. , Fischer, F. et al. (2021). Simulation-Based Learning of Complex Skills: Predicting Performance With Theoretically Derived Process Features. Psychological Test and Assessment Modeling , 63 (4), 542–560. First citation in articleGoogle Scholar

  • Chernikova, O. , Heitzmann, N. , Fink, M. C. , Timothy, V. , Seidel, T. , Fischer, F. et al. (2020). Facilitating Diagnostic Competences in Higher Education – a Meta-Analysis in Medical and Teacher Education. Educational Psychology Review , 32 (1), 157–196. https://doi.org/10.1007/s10648-019-09492-2 First citation in articleCrossrefGoogle Scholar

  • Di Mitri, D. , Schneider, J. , Specht, M. & Drachsler, H. (2018). From signals to knowledge: A conceptual model for multimodal learning analytics. Journal of Computer Assisted Learning , 34 (4), 338–349. https://doi.org/10.1111/jcal.12288 First citation in articleCrossrefGoogle Scholar

  • Fischer, F. , Bauer, E. , Seidel, T. , Schmidmaier, R. , Radkowitsch, A. , Neuhaus, B. et al. (2022). Representational scaffolding in digital simulations – learning professional practices in higher education. PsyArXiv Preprints . https://doi.org/10.31234/osf.io/bf92d First citation in articleGoogle Scholar

  • Fortenbacher, A. , Ninaus, M. , Yun, H. , Helbig, R. & Moeller, K. (2019). Sensor Based Adaptive Learning – Lessons Learned. In N. Pinkwart J. Konert (Hrsg.), Die 17. Fachtagung Bildungstechnologien, Lecture Notes in Informatics (LNI), Gesellschaft für Informatik (Band P-297, S.193–198). Berlin. https://doi.org/10.18420/delfi2019_355 First citation in articleGoogle Scholar

  • Gal, R. , May, A. M. , van Overmeeren, E. J. , Simons, M. & Monninkhof, E. M. (2018). The Effect of Physical Activity Interventions Comprising Wearables and Smartphone Applications on Physical Activity: a Systematic Review and Meta-analysis. Sports Medicine – Open , 4 (1), 42. https://doi.org/10.1186/s40798-018-0157-9 First citation in articleCrossrefGoogle Scholar

  • Geyer, K. , Ellis, D. A. , Shaw, H. & Davidson, B. I. (2022). Open-source smartphone app and tools for measuring, quantifying, and visualizing technology use. Behavior Research Methods , 54 (1), 1–12. https://doi.org/10.3758/s13428-021-01585-7 First citation in articleCrossrefGoogle Scholar

  • Goldberg, P. , Sümer, Ö. , Stürmer, K. , Wagner, W. , Göllner, R. , Gerjets, P. et al. (2021). Attentive or Not? Toward a Machine Learning Approach to Assessing Students' Visible Engagement in Classroom Instruction. Educational Psychology Review , 33 (1), 27–49. https://doi.org/10.1007/s10648-019-09514-z First citation in articleCrossrefGoogle Scholar

  • Graesser, A. C. , Hu, X. & Sottilare, R. (2018). Intelligent tutoring systems. International Handbook of the Learning Sciences , (February), 246–255. https://doi.org/10.4324/9781315617572 First citation in articleCrossrefGoogle Scholar

  • Greipl, S. , Bernecker, K. & Ninaus, M. (2021). Facial and Bodily Expressions of Emotional Engagement: How Dynamic Measures Reflect the Use of Game Elements and Subjective Experience of Emotions and Effort. PACM on Human-Computer Interaction , 5 (CHI PLAY Article 240), 240–240:25. https://doi.org/10.1145/3474667 First citation in articleGoogle Scholar

  • Hakimi, L. , Eynon, R. & Murphy, V. A. (2021). The Ethics of Using Digital Trace Data in Education: A Thematic Review of the Research Landscape. Review of Educational Research , 91 (5), 671–717. https://doi.org/10.3102/00346543211020116 First citation in articleCrossrefGoogle Scholar

  • Hansen, J. , Rensing, C. , Herrmann, O. & Drachsler, H. (2020). Verhaltenskodex für Trusted Learning Analytics . Nr. Version 1.0. Goethe-Universität Frankfurt am Main. http://dx.doi.org/10.13140/RG.2.2.24859.41760 First citation in articleGoogle Scholar

  • Hattie, J. & Timperley, H. (2007). The Power of Feedback. Review of Educational Research , 77 (1), 81–112. https://doi.org/10.3102/003465430298487 First citation in articleCrossrefGoogle Scholar

  • Hickendorff, M. , Edelsbrunner, P. A. , McMullen, J. , Schneider, M. & Trezise, K. (2018). Informative tools for characterizing individual differences in learning: Latent class, latent profile, and latent transition analysis. Learning and Individual Differences , 66 , 4–15. Elsevier. https://doi.org/10.1016/j.lindif.2017.11.001 First citation in articleCrossrefGoogle Scholar

  • Hilbert, S. , Coors, S. , Kraus, E. , Bischl, B. , Lindl, A. , Frei, M. et al. (2021). Machine learning for the educational sciences. Review of Education , 9(3). https://doi.org/10.1002/rev3.3310 First citation in articleCrossrefGoogle Scholar

  • Holstein, K. , Aleven, V. & Rummel, N. (2020). A Conceptual Framework for Human–AI Hybrid Adaptivity in Education (Lecture Notes in Computer Science). In I. I. Bittencourt M. Cukurova K. Muldner R. Luckin E. Millán (Hrsg.), Artificial Intelligence in Education (Band 12163, S.240–254). Cham: Springer International Publishing. https://doi.org/10.1007/978-3-030-52237-7_20 First citation in articleGoogle Scholar

  • Huijsmans, M. D. E. , Kleemans, T. , van der Ven, S. H. G. & Kroesbergen, E. H. (2020). The relevance of subtyping children with mathematical learning disabilities. Research in Developmental Disabilities , 104 (May), 103704. Elsevier. https://doi.org/10.1016/j.ridd.2020.103704 First citation in articleCrossrefGoogle Scholar

  • Isakadze, N. & Martin, S. S. (2020). How useful is the smartwatch ECG? Trends in Cardiovascular Medicine , 30 (7), 442–448. https://doi.org/10.1016/j.tcm.2019.10.010 First citation in articleCrossrefGoogle Scholar

  • Janssen, T. W. P. , Grammer, J. K. , Bleichner, M. G. , Bulgarelli, C. , Davidesco, I. , Dikker, S. et al. (2021). Opportunities and Limitations of Mobile Neuroimaging Technologies in Educational Neuroscience. Mind, Brain, and Education , 15 (4), 354–370. https://doi.org/10.1111/mbe.12302 First citation in articleCrossrefGoogle Scholar

  • Järvelä, S. , Gašević, D. , Seppänen, T. , Pechenizkiy, M. & Kirschner, P. A. (2020). Bridging learning sciences, machine learning and affective computing for understanding cognition and affect in collaborative learning. British Journal of Educational Technology , 51 (6), 2391–2406. https://doi.org/10.1111/bjet.12917 First citation in articleCrossrefGoogle Scholar

  • Li, Q. , Baker, R. & Warschauer, M. (2020). Using clickstream data to measure, understand, and support self-regulated learning in online courses. The Internet and Higher Education , 45 , 100727. https://doi.org/10.1016/j.iheduc.2020.100727 First citation in articleCrossrefGoogle Scholar

  • Mah, D.-K. & Ifenthaler, D. (2018). Students' perceptions toward academic competencies: The case of German first-year students. Issues in Educational Research , 28 (1), 120–137. https://doi.org/doi/10.3316/informit.437867582603162 First citation in articleGoogle Scholar

  • Molenaar, I. (2021). Personalisation of learning: Towards hybrid human-AI learning technologies. OECD Digital Education Outlook 2021: Pushing the Frontiers with Artificial Intelligence, Blockchain and Robots . Paris: OECD Publishing. Verfügbar unter: https://read.oecd.org/10.1787/2cc25e37-en?format=html First citation in articleCrossrefGoogle Scholar

  • Narciss, S. , Sosnovsky, S. , Schnaubert, L. , Andrès, E. , Eichelmann, A. , Goguadze, G. et al. (2014). Exploring feedback and student characteristics relevant for personalizing feedback strategies. Computers & Education , 71 , 56–76. https://doi.org/10.1016/j.compedu.2013.09.011 First citation in articleCrossrefGoogle Scholar

  • Nebel, S. & Ninaus, M. (2019). New Perspectives on Game-Based Assessment with Process Data and Physiological Signals. In D. Ifenthaler Y. Kim (Hrsg.), Game-Based Assessment Revisited. Advances in Game-Based Learning (S.141–161). Springer. https://doi.org/10.1007/978-3-030-15569-8_8 First citation in articleGoogle Scholar

  • Ninaus, M. , Greipl, S. , Kiili, K. , Lindstedt, A. , Huber, S. , Klein, E. et al. (2019). Increased emotional engagement in game-based learning – A machine learning approach on facial emotion detection data. Computers & Education , 142 (July), 103641. Elsevier. https://doi.org/10.1016/j.compedu.2019.103641 First citation in articleCrossrefGoogle Scholar

  • Ninaus, M. & Nebel, S. (2021). A Systematic Literature Review of Analytics for Adaptivity Within Educational Video Games. Frontiers in Education , 5 (611072). https://doi.org/10.3389/feduc.2020.611072 First citation in articleCrossrefGoogle Scholar

  • Pea, R. D. (2004). The Social and Technological Dimensions of Scaffolding and Related Theoretical Concepts for Learning, Education, and Human Activity. Journal of the Learning Sciences , 13 (3), 423–451. https://doi.org/10.1207/s15327809jls1303_6 First citation in articleCrossrefGoogle Scholar

  • Plass, J. L. & Pawar, S. (2020). Toward a taxonomy of adaptivity for learning. Journal of Research on Technology in Education , 52 (3), 275–300. https://doi.org/10.1080/15391523.2020.1719943 First citation in articleCrossrefGoogle Scholar

  • Quin, D. (2017). Longitudinal and Contextual Associations Between Teacher–Student Relationships and Student Engagement: A Systematic Review. Review of Educational Research , 87 (2), 345–387. https://doi.org/10.3102/0034654316669434 First citation in articleCrossrefGoogle Scholar

  • Radkowitsch, A. , Sailer, M. , Schmidmaier, R. , Fischer, M. R. & Fischer, F. (2021). Learning to diagnose collaboratively – Effects of adaptive collaboration scripts in agent-based medical simulations. Learning and Instruction , 75 , 101487. https://doi.org/10.1016/j.learninstruc.2021.101487 First citation in articleCrossrefGoogle Scholar

  • Radkowitsch, A. , Vogel, F. & Fischer, F. (2020). Good for learning, bad for motivation? A meta-analysis on the effects of computer-supported collaboration scripts. International Journal of Computer-Supported Collaborative Learning , 15 (1), 5–47. https://doi.org/10.1007/s11412-020-09316-4 First citation in articleCrossrefGoogle Scholar

  • Reiser, B. J. & Tabak, I. (2014). Scaffolding. In R. Keith Sawyer (Ed.), The Cambridge Handbook of the Learning Sciences, Second Edition (pp.44–62). Cambridge University Press. https://doi.org/10.1017/CBO9781139519526.005 First citation in articleGoogle Scholar

  • Sailer, M. , Bauer, E. , Hofmann, R. , Kiesewetter, J. , Glas, J. , Gurevych, I. et al. (2022). Adaptive feedback from artificial neural networks facilitates pre-service teachers' diagnostic reasoning in simulation-based learning. Learning and Instruction , 101620. https://doi.org/10.1016/j.learninstruc.2022.101620 First citation in articleCrossrefGoogle Scholar

  • Schneider, J. , Börner, D. , Van Rosmalen, P. & Specht, M. (2015). Augmenting the senses: A review on sensor-based learning support. Sensors (Switzerland) , 15 (2), 4097–4133. https://doi.org/10.3390/s150204097 First citation in articleCrossrefGoogle Scholar

  • Schrader, C. & Bastiaens, T. (2012). Learning in educational computer games for novices: The impact of support provision types on virtual presence, cognitive load, and learning outcomes. The International Review of Research in Open and Distributed Learning , 13 (3), 206. https://doi.org/10.19173/irrodl.v13i3.1166 First citation in articleCrossrefGoogle Scholar

  • Sevarac, Z. , Devedzic, V. & Jovanovic, J. (2012). Adaptive neuro-fuzzy pedagogical recommender. Expert Systems with Applications , 39 (10), 9797–9806. https://doi.org/10.1016/j.eswa.2012.02.174 First citation in articleCrossrefGoogle Scholar

  • Shin, D. (2021). The effects of explainability and causability on perception, trust, and acceptance: Implications for explainable AI. International Journal of Human-Computer Studies , 146 , 102551. https://doi.org/10.1016/j.ijhcs.2020.102551 First citation in articleCrossrefGoogle Scholar

  • Smarr, B. L. & Schirmer, A. E. (2018). 3.4 million real-world learning management system logins reveal the majority of students experience social jet lag correlated with decreased performance. Scientific Reports , 8 (1), 4793. https://doi.org/10.1038/s41598-018-23044-8 First citation in articleCrossrefGoogle Scholar

  • Spilt, J. L. , Koomen, H. M. Y. & Thijs, J. T. (2011). Teacher Wellbeing: The Importance of Teacher–Student Relationships. Educational Psychology Review , 23 (4), 457–477. https://doi.org/10.1007/s10648-011-9170-y First citation in articleCrossrefGoogle Scholar

  • Stadler, M. , Fischer, F. & Greiff, S. (2019). Taking a Closer Look: An Exploratory Analysis of Successful and Unsuccessful Strategy Use in Complex Problems. Frontiers in Psychology , 10 , 777. https://doi.org/10.3389/fpsyg.2019.00777 First citation in articleCrossrefGoogle Scholar

  • Stadler, M. , Niepel, C. & Greiff, S. (2019). Differentiating between static and complex problems: A theoretical framework and its empirical validation. Intelligence , 72 , 1–12. https://doi.org/10.1016/j.intell.2018.11.003 First citation in articleCrossrefGoogle Scholar

  • Wiedbusch, M. D. , Kite, V. , Yang, X. , Park, S. , Chi, M. , Taub, M. et al. (2021). A Theoretical and Evidence-Based Conceptual Design of MetaDash: An Intelligent Teacher Dashboard to Support Teachers' Decision Making and Students' Self-Regulated Learning. Frontiers in Education, 6, 570229. https://doi.org/10.3389/feduc.2021.570229 First citation in articleCrossrefGoogle Scholar

  • Wisniewski, B. , Zierer, K. & Hattie, J. (2020). The Power of Feedback Revisited: A Meta-Analysis of Educational Feedback Research. Frontiers in Psychology, 10, 3087. https://doi.org/10.3389/fpsyg.2019.03087 First citation in articleCrossrefGoogle Scholar

  • Wu, C.-H. H. , Huang, Y.-M. M. & Hwang, J.-P. P. (2016). Review of affective computing in education/learning: Trends and challenges. British Journal of Educational Technology , 47 (6), 1304–1323. https://doi.org/10.1111/bjet.12324 First citation in articleCrossrefGoogle Scholar

  • Wu, Y. H. & Wu, E. H. (2020). AI-based College Course Selection Recommendation System: Performance Prediction and Curriculum Suggestion. 2020 International Symposium on Computer, Consumer and Control (IS3C) (S.79–82). Gehalten auf der 2020 International Symposium on Computer, Consumer and Control (IS3C), Taichung City, Taiwan: IEEE. https://doi.org/10.1109/IS3C50286.2020.00028 First citation in articleCrossrefGoogle Scholar

  • Yarkoni, T. & Westfall, J. (2017). Choosing Prediction Over Explanation in Psychology: Lessons From Machine Learning. Perspectives on Psychological Science , 12 (6), 1100–1122. https://doi.org/10.1177/1745691617693393 First citation in articleCrossrefGoogle Scholar

  • Zhu, M. , Lee, H.-S. , Wang, T. , Liu, O. L. , Belur, V. & Pallant, A. (2017). Investigating the impact of automated feedback on students’ scientific argumentation. International Journal of Science Education , 39 (12), 1648–1668. https://doi.org/10.1080/09500693.2017.1347303 First citation in articleCrossrefGoogle Scholar

  • Zhu, M. , Liu, O. L. & Lee, H.-S. (2020). The effect of automated feedback on revision behavior and learning gains in formative assessment of scientific argument writing. Computers & Education, 143, 103668. https://doi.org/10.1016/j.compedu.2019.103668 First citation in articleCrossrefGoogle Scholar