Im Rahmen des OpenCourse 2012: “Trends im E-Teaching – der Horizon Report unter der Lupe” begann gestern der Block zum Thema “Learning Analytics” und heute fand dazu eine erste Sitzung im virtuellen Klassenzimmer statt. Mehr als 100 Teilnehmende waren dabei und – das schon mal vorab gesagt – ich fand die Sitzung wirklich gut (Kompliment an Jochen Robes als Moderator und Martin Ebner als Referent)!
Worum geht es bei Learning Analytics und worum ging es in dieser Sitzung?
Learning Analytics geht unter anderem auf Educational Data Mining (EDM) zurück und ist – vereinfacht gesagt – die Analyse von Daten, die sich aus Lernaktivitäten ergeben: Welche Lernressourcen werden aufgerufen, welche nicht? Welche Aufträge werden mit welchem Erfolg bearbeitet? Was wird in Foren gelesen und kommentiert? Wer reagiert auf wen? Wann lässt Lernaktivität nach bzw. bricht ab? Analysieren kann man solche Daten auf der Ebene von einzelnen Lernenden, Kursen, Studienprogrammen, Hochschulen, Regionen, Nationalstaaten oder globalen Organisationen und Programmen. Zielsetzungen können sein das Herstellen von Transparenz zu Lernaktivitäten, die Identifikation von potenziellen Kurs- / Studienabbrechern oder auch die Identifikation von Ansatzpunkten zur Verbesserung von Lernprozessen und Lernerfolg. Informativ aus meiner Sicht dazu das Programm der diesjährigen Konferenz “Learning Analytics and Knowledge (LAK 2012)” und ein Dokument der Forschungsgruppe SOLAR.
Im Rahmen der OPCO-Sitzung heute hat Martin Ebner anhand eines Projekts, bei dem es um die Unterstützung von mathematisches Lernen auf der Stufe Grundschule / Primarschule / Volksschule geht, einige Gedanken zu Learning Analytics formuliert. Das war für mich, der ich das Thema bisher eher aus dem Hochschulkontext kenne, interessant zu hören – und auch, dass dieses Projekt ursprünglich gar nicht als Analytics-Projekt angelegt war.
Wie die Schulkinder mit dem im Rahmen des Projekts entwickelten digitalen 1×1-Trainer arbeiten, ist in einem kurzen Video zu sehen. Über einen Beobachtungszeitraum von 1.5 Monaten haben die 230 beteiligten Kinder in mehr als 750 Sitzungen über 28’000 Aufgaben gelöst. Bei der Arbeit mit diesen Datenmengen rückte dann das Thema Learning Analytics in den Vordergrund. Wie kann man sich einen Überblick darüber verschaffen, wie die Kinder selbständig mit dem 1×1-Trainer arbeiten, ob und wie gut sie vorankommen? Hierzu wurden verschiedene Auswertungsalgorythmen und Visualisierungen entwickelt. Dabei zeigte sich unter anderem, dass es im Hinblick auf den Lernfortschritt schon einen Unterschied macht, ob man darauf schaut, ob Kinder zufällig ausgewählte Aufgaben nur einmal oder zweimal in Folge richtig gelöst haben. Und es zeigen sich auch Verlaufskurven bezüglich korrekter Aufgabenlösung, die ein genaueres Hinschauen und gegebenenfalls auch Intervenieren durch die Lehrperson nahelegen.
Parallel zum Bericht von Martin Ebner wurde der Chat intensiv genutzt – aber dem konnte ich nicht wirklich folgen. In der anschliessenden Diskussion wurde unter anderem die Frage gestellt, welchen Arbeitsaufwand solche Analysen für Lehrpersonen mit sich bringen. Martin Ebner machte deutlich, dass dies bisher noch zu aufwändig und für Lehrpersonen nebenher kaum zu bewältigen ist. Hier muss sich also noch einiges tun. Auch die Frage, inwiefern sich diese Herangehensweise auf höhere Ausbildungsstufen und weniger standardisierbare Lernschritte übertragen lässt, wurde angerissen. Und schliesslich waren auch Fragen des Datenschutzes ein Thema. Martin Ebener selbst hatte in seinem Vortrag darauf verwiesen, dass bei der Fülle an Daten(spuren), die wir im Social Web hinterlassen, Anonymität nicht mehr gewährleistet werden kann und Personenprofiling prinzipiell möglich ist.
Die Vision, Lernprozesse durch die Analyse von grossen Mengen an Nutzerdaten besser verstehen und unterstützen zu können, ist formuliert und erste Werkzeuge sind verfügbar. Aber es ist wohl noch ein weiter Weg, bis dies im Alltag von Bildungsinstitutionen seinen Platz gefunden haben wird.