Universalität vs. Individualität: Wie gelingt die veranstaltungsübergreifende Evaluation digitalisierungsbezogener Lehrkräftefortbildungen?
Chair(s): Nina Mulaimovic (Universität Potsdam, Deutschland)
Diskutant:in(nen): Uta Hauck-Thum (Ludwig-Maximilians-Universität München, Deutschland)
Lehrkräftefortbildungen wird eine wichtige Rolle bei der Optimierung von schulischen Lehr- und Lernprozessen zugeschrieben (KMK, 2020; Lipowsky, 2010). Wenn sie bestimmte Qualitätsmerkmale aufweisen, können sie dazu beitragen, dass Lehrkräfte ihre Kompetenzen und Fähigkeiten erweitern sowie ihre Einstellungen und Überzeugungen positiv verändern (Darling-Hammond et al., 2017; Desimone, 2009). Dies kann wiederum dazu führen, dass Lehrkräfte ihre Unterrichtspraxis anpassen, was schlussendlich mit besseren Schüler:innenleistungen einhergehen kann. Vor diesem Hintergrund ist es von besonderer Relevanz, eine regelmäßige Qualitätssicherung mittels geeigneter Evaluationsinstrumente in der Fortbildungspraxis zu etablieren. Jüngst hat es bereits einige Bestrebungen zur Entwicklung veranstaltungsübergreifender Evaluationsinstrumente zur Erfassung der Fortbildungsqualität und -wirksamkeit gegeben (z.B. Richter & Richter, 2024). Bislang erfassen diese Instrumente jedoch keine digitalisierungsbezogenen Aspekte (z.B. Kompetenzen, Einstellungen, etc.), was angesichts der fortlaufenden Digitalisierung des Bildungsbereiches ein bedeutsames Forschungsdesiderat darstellt. Diesem Forschungsdesiderat widmen sich gegenwärtig verschiedene Forschungsprojekte des Kompetenzverbundes lernen:digital. In diesem Symposium sollen die Arbeitsergebnisse eines Forschungsprojektes der Transferstelle und zweier Forschungsprojekte des Kompetenzzentrums MINT vorgestellt werden. Der erste Beitrag gibt einen Einblick in die Entwicklung eines Instrumentenkataloges, welcher bereits existierende Evaluationsinstrumente zusammenfasst und dabei Lücken in Bezug auf digitalisierungsbezogene Aspekte identifiziert. Daraufhin stellen der zweite und der dritte Beitrag Vorschläge für Instrumente zur Evaluation digitalisierungsbezogener Fortbildungen für MINT-Lehrkräfte sowie erste damit erzielte Pilotierungsergebnisse vor. Dabei eint alle drei Beiträge die Frage, wie viel Universalität möglich und wie viel Individualität nötig ist, um digitalisierungsbezogene Lehrkräftefortbildungen adäquat und veranstaltungsübergreifend evaluieren zu können.
Beiträge des Symposiums
Instrumentenkatalog zur Evaluation von (digitalisierungsbezogenen) Lehrkräftefortbildungen: Notwendigkeit und Stolpersteine
Julia Hartung1, Dirk Richter1, Dumitru Malai2, Johannes Osterberg2, Daniela Rzejak2, Sebastian Vogel2, Frank Lipowsky2 1Universität Potsdam, Deutschland, 2Universität Kassel, Deutschland
Die voranschreitende digitale Transformation im Bildungsbereich erfordert auch das Angebot qualitätsvoller digitalisierungsbezogener Fortbildungen, in denen Lehrkräfte Kompetenzen in Bezug auf den sicheren und kreativen Umgang mit digitalen Medien im Unterricht erwerben, aktualisieren oder ausbauen können (Gerick et al., 2024; Richter et al., 2020). Diese Kompetenzen ermöglichen es Lehrkräften, den im Zuge der digitalen Transformation aufkommenden medienpädagogischen Herausforderungen (z.B. Wandel von Unterrichtsformen, Förderung überfachlicher Kompetenzen von Schüler:innen, Entwicklung neuer Prüfungsformen etc.) adäquat begegnen zu können (Gerick et al., 2024; Petko et al., 2018). Die Evaluation von Lehrkräftefortbildungen stellt hierbei eine Notwendigkeit dar, um die (Weiter-)Entwicklung qualitätsvoller Fortbildungsangebote zu unterstützen. Innerhalb des Projektes Instrumentenentwicklung, welches an die Transferstelle des Kompetenzverbundes lernen:digital angegliedert ist, wurde eine Literaturrecherche durchgeführt, um Instrumente zur Evaluation digitalisierungsbezogener Fortbildungen zu identifizieren und in einem Instrumentenkatalog zusammenzutragen. Dieser Instrumentenkatalog soll lernen:digital-Projektverbünden sowie einem breiteren Publikum von Anbieter:innen von Lehrkräftefortbildungen zur Verfügung gestellt werden. Um den Instrumentenkatalog zu konzipieren, mussten einige Stolpersteine überwunden werden. Zum einem versucht der im Aufbau befindliche Instrumentenkatalog der inhaltlichen Vielfalt der Instrumente durch eine Systematisierung in Evaluationsfelder und dazugehörige Dimensionen zu begegnen. Die Entwicklung eines Systematisierungsmodells und die Einordnung einer Vielzahl heterogener Instrumente in ein solches Modell stellt eine Herausforderung bzw. einen Stolperstein dar. Zum anderen wurde im Zuge der Ausarbeitung festgestellt, dass Instrumente, welche insbesondere die Evaluation digitalisierungsbezogener Aspekte in den Fortbildungen fokussieren, wenig verbreitet sind. Auch zu anderen Aspekten wie bspw. der wahrgenommenen Arbeitsbelastung in der Praxis als Folge der Fortbildungsteilnahme (van Veen et al., 2012), schulischen Kontextbedingungen (Eickelmann et al., 2016; van Veen et al., 2012) und der Qualität von einzelnen Lehr-Lern-Prozessen innerhalb von Fortbildungen (Rzejak et al., 2023) gibt es derzeit nur wenige Instrumente. Diesen Forschungsdesideraten wird innerhalb des Projektes mit der Entwicklung geeigneter Skalen zur Erfassung fehlender Konstrukte begegnet. Im Rahmen des Symposiums werden die Systematisierung innerhalb des Instrumentenkataloges vorgestellt sowie identifizierte Forschungsdesiderate aufgezeigt und diskutiert.
Evaluation von MINT-Lehrkräftefortbildungen mit Fokus auf adaptiven und digital gestützten Unterricht - Fragebogenkonstruktion und erste Ergebnisse
Seyma Gülen, Nadja Spannowsky, Christian Fischer Eberhard Karls Universität Tübingen, Deutschland
Im Zuge gesellschaftlicher Veränderungen und der damit einhergehenden Digitalisierung steht auch die schulische Bildung vor einer Transformation (Hussin, 2018). Um diesen Transformationsprozess zielgerichtet und produktiv gestalten zu können, sind Lehrkräfte angewiesen, sich stetig weiterzubilden. Dafür bedarf es allerdings geeigneter Fortbildungskonzepte. Hieran setzt der Projektverbund MINT-ProNeD im Rahmen des Kompetenzverbundes lernen:digital an und zielt auf die Etablierung eines integrativen Gesamtkonzepts für die Professionalisierung von MINT-Lehrkräften zur Gestaltung adaptiven (Corno, 2008) und digital gestützten Unterrichts. Zur Qualitätssicherung und Optimierung der Fortbildungen werden dabei im Rahmen der standortübergreifenden Evaluation die Gelingensbedingungen effektiver Lehrkräftefortbildungen untersucht. In Anlehnung an Desimone (2009) zielt die Fortbildungsevaluation auf die Ebenen (a) der Lehrkräftefortbildung, (b) der Lehrkräfte und (c) des Unterrichts ab, um die Breite von möglichen Effekten der Fortbildungsteilnahmen auf den verschiedenen Ebenen abzudecken. Die Auswahl der Evaluationsinstrumente für die standortübergreifende Befragung erfolgte auf Grundlage eines Baukasten-Prinzips (BK). Der BK1 ist der Basisfragebogen, welcher standortübergreifend die verpflichtenden Elemente der Befragung umfasst. Hier werden grundlegende Informationen zu Hintergrundvariablen und Fortbildungen sowie essenzielle Konstrukte für die Effektivität von Fortbildungen erfasst. Im BK2 werden standortübergreifend optionale und weiterführende Instrumente angeboten, aus denen die am Projekt beteiligten Standorte einzelne Aspekte in die standortspezifische Gesamterhebung integrieren können. Im BK3 sind standortspezifische Instrumente vorgesehen, die von den Standorten selbstständig ausgewählt und erhoben werden. Das Studiendesign sieht für die Erfassung der Wirksamkeit der Lehrkräftefortbildungen eine Prä-Postbefragung vor. Neben dem Einblick in die Fragebogenkonstruktion werden in dem Beitrag auch erste empirische Befunde hinsichtlich der Gelingensbedingungen effektiver Lehrkräftefortbildungen für die Gestaltung digital gestützten adaptiven MINT-Unterrichts vorgestellt. Die Befunde fokussieren anhand einer Vielzahl an unterschiedlichen Fortbildungskonzeptionen die Wirksamkeit einzelner Gestaltungselemente hinsichtlich der Lehrkräfteprofessionalisierung und ihrer Effekte auf die Unterrichtsgestaltung.
Evaluation digitalisierungsbezogener Fortbildungen für MINT-Lehrkräfte - ein Baukastenprinzip auf Basis von TAM und DiKoLAN
Nina Mulaimovic, Eric Richter, Dirk Richter Universität Potsdam, Deutschland
MINT-Lehrkräfte setzen in ihrem Unterricht vergleichsweise häufig digitale Medien ein (Endberg & Lorenz, 2017). Damit dieser Medieneinsatz zielführend stattfindet, benötigen sie bestimmte Kompetenzen und Fähigkeiten sowie Einstellungen und Überzeugungen, welche u.a. im Rahmen von Fortbildungsveranstaltungen erworben werden können. Folglich sollte im Rahmen einer Qualitätssicherung digitalisierungsbezogener Fortbildungen für MINT-Lehrkräfte nicht nur erfasst werden, ob die Veranstaltungen bestimmte Qualitätsmerkmale aufweisen, sondern auch, ob sie Lehrkräfte dabei unterstützen, ihre Kompetenzen und Fähigkeiten zu erweitern sowie ihre Einstellungen und Überzeugungen positiv zu verändern. Bislang existieren jedoch überwiegend Evaluationsinstrumente, die ausschließlich verschiedene Dimensionen der Fortbildungsqualität erfassen (z.B. Richter & Richter, 2024). Vor diesem Hintergrund verfolgt der Projektverbund D4MINT, welcher im Kompetenzzentrum MINT des Kompetenzverbundes lernen:digital angesiedelt ist, u.a. das Ziel, ein veranstaltungsübergreifendes Evaluationsinstrument zu entwickeln, das neben Qualitätsmerkmalen auch Änderungen in den digitalisierungsbezogenen Kompetenzen und Fähigkeiten sowie Einstellungen und Überzeugungen der Lehrkräfte erfasst. Dazu wird sich einerseits an das Modell Digitale Kompetenzen für das Lehramt in den Naturwissenschaften (DiKoLAN; Arbeitsgruppe Digitale Basiskompetenzen, 2020) und andererseits an das Technologieakzeptanzmodell (TAM; Davis, 1989; Davis et al., 1989) angelehnt. Um dabei der großen Heterogenität innerhalb der Fortbildungen an unterschiedlichen Standorten gerecht zu werden, werden Evaluationsinstrumente mit obligatorischen und optionalen Bestandteilen vorgeschlagen. Diese werden im Rahmen des Projektverbundes pilotiert, sodass Aussagen über ihre Validität und Reliabilität getroffen werden können. Im Rahmen des Symposiums sollen erste Pilotierungsergebnisse vorgestellt und diskutiert werden.
|