Glanz (Diskussion | Beiträge)
Keine Bearbeitungszusammenfassung
Glanz (Diskussion | Beiträge)
Keine Bearbeitungszusammenfassung
 
(9 dazwischenliegende Versionen desselben Benutzers werden nicht angezeigt)
Zeile 3: Zeile 3:


{{:MOOCit - Titel}}
{{:MOOCit - Titel}}
<br>
{{#ev:youtube | https://www.youtube.com/watch?v=RWUlCLrc-wU | 700 | center}}
<br>


= '''FELIX – Feedbackkultur mit KI''' =
= '''FELIX – Feedbackkultur mit KI''' =
[[Datei:FELIX - Feedback mit KI.png|800px|rahmenlos|zentriert|link=FELIX]]
''Abbildung: FELIX kann zur Kurzform FIX werden (ohne E und L).''


== Vorwort ==
== Vorwort ==
Zeile 12: Zeile 14:
Dieses Buch entfaltet mit '''FELIX''' und der Kurzform '''FIX''' eine wissenschaftlich begründete, praxistaugliche Architektur für Feedbackkultur im Zeitalter der Künstlichen Intelligenz (KI). Im Zentrum steht Lernen als sozial eingebetteter, kognitiv anspruchsvoller und zielgerichteter Prozess, der durch geeignete Rückmeldungen sichtbar, steuerbar und nachhaltig wird. Forschung zu formativer Beurteilung und Feedback zeigt konsistent: Rückmeldungen sind dann wirksam, wenn sie früh ansetzen, an expliziten Zielen ausgerichtet sind, sich auf beobachtbare Merkmale beziehen, handlungsleitend formuliert sind und zeitnah in Überarbeitung münden.<ref>Black, P.; Wiliam, D. (1998): Assessment and Classroom Learning. ''Assessment in Education'', 5(1), 7–74.</ref><ref>Hattie, J.; Timperley, H. (2007): The Power of Feedback. ''Review of Educational Research'', 77(1), 81–112.</ref><ref>Shute, V. J. (2008): Focus on Formative Feedback. ''Review of Educational Research'', 78(1), 153–189.</ref>
Dieses Buch entfaltet mit '''FELIX''' und der Kurzform '''FIX''' eine wissenschaftlich begründete, praxistaugliche Architektur für Feedbackkultur im Zeitalter der Künstlichen Intelligenz (KI). Im Zentrum steht Lernen als sozial eingebetteter, kognitiv anspruchsvoller und zielgerichteter Prozess, der durch geeignete Rückmeldungen sichtbar, steuerbar und nachhaltig wird. Forschung zu formativer Beurteilung und Feedback zeigt konsistent: Rückmeldungen sind dann wirksam, wenn sie früh ansetzen, an expliziten Zielen ausgerichtet sind, sich auf beobachtbare Merkmale beziehen, handlungsleitend formuliert sind und zeitnah in Überarbeitung münden.<ref>Black, P.; Wiliam, D. (1998): Assessment and Classroom Learning. ''Assessment in Education'', 5(1), 7–74.</ref><ref>Hattie, J.; Timperley, H. (2007): The Power of Feedback. ''Review of Educational Research'', 77(1), 81–112.</ref><ref>Shute, V. J. (2008): Focus on Formative Feedback. ''Review of Educational Research'', 78(1), 153–189.</ref>


'''FELIX''' beschreibt fünf ineinandergreifende Stufen: '''Free Learning''' (strukturierte Lernumgebungen mit Sofort-Rückmeldung), '''Evaluation''' (Peer-Feedback), '''Learning Mentor''' (gezielte Expertenstütze), '''Interactive Feedback''' (KI-gestützte Impulse) und '''Xpert''' (reflektierende Lehrkraft). '''FIX''' ist die pragmatische Kurzform ohne E und L, wenn Peer- oder Mentorenstrukturen situativ fehlen. Der Name '''FELIX''' verweist etymologisch auf ''felix'' = der Glückliche/Erfolgreiche/Fruchtbare und steht sinnbildlich für eine Lernkultur, die Freude, Wirksamkeit und Wachstum ermöglicht.
'''FELIX''' beschreibt fünf ineinandergreifende Stufen:  
# '''Free Learning''' (strukturierte Lernumgebungen mit Sofort-Rückmeldung),  
# '''Evaluation''' (Peer-Feedback),  
# '''Learning Mentor''' (gezielte Expertenstütze),  
# '''Interactive Feedback''' (KI-gestützte Impulse) und  
# '''(E)Xpert''' (reflektierende Lehrkraft).  
 
{{#ev:youtube | https://www.youtube.com/watch?v=yrBK1tvEDfk| 500 | center}}
 
 
[[Datei:FELIX - Die Feedbackkultur mit KI.png|1000px|rahmenlos|zentriert]]
 
 
 
 
 
'''FIX''' ist die pragmatische Kurzform ohne E und L, wenn Peer- oder Mentorenstrukturen situativ fehlen. Der Name '''FELIX''' verweist etymologisch auf ''felix'' = der Glückliche/Erfolgreiche/Fruchtbare und steht sinnbildlich für eine Lernkultur, die Freude, Wirksamkeit und Wachstum ermöglicht.


KI wird in diesem Rahmen als '''Verstärker''' genutzt, nicht als Ersatz pädagogischer Professionalität. Sie kann Fehlermuster identifizieren, Beispiele variieren, Kriterien operationalisieren und adaptive Aufgaben vorschlagen; dafür braucht es Leitplanken zu Transparenz, Korrektheit, Fairness, Datenschutz und Barrierefreiheit sowie ein kompetenzbasiertes Zugangsmodell ('''Vertrauensstufen''').<ref>Carless, D.; Boud, D. (2018): The development of student feedback literacy. ''Assessment & Evaluation in Higher Education'', 43(8), 1315–1325.</ref><ref>Deci, E. L.; Ryan, R. M. (2000): The “What” and “Why” of Goal Pursuits. ''Psychological Inquiry'', 11(4), 227–268.</ref><ref>Sweller, J. (1988): Cognitive load during problem solving. ''Cognitive Science'', 12(2), 257–285.</ref>
KI wird in diesem Rahmen als '''Verstärker''' genutzt, nicht als Ersatz pädagogischer Professionalität. Sie kann Fehlermuster identifizieren, Beispiele variieren, Kriterien operationalisieren und adaptive Aufgaben vorschlagen; dafür braucht es Leitplanken zu Transparenz, Korrektheit, Fairness, Datenschutz und Barrierefreiheit sowie ein kompetenzbasiertes Zugangsmodell ('''Vertrauensstufen''').<ref>Carless, D.; Boud, D. (2018): The development of student feedback literacy. ''Assessment & Evaluation in Higher Education'', 43(8), 1315–1325.</ref><ref>Deci, E. L.; Ryan, R. M. (2000): The “What” and “Why” of Goal Pursuits. ''Psychological Inquiry'', 11(4), 227–268.</ref><ref>Sweller, J. (1988): Cognitive load during problem solving. ''Cognitive Science'', 12(2), 257–285.</ref>
[[Datei:FELIX - Feedback mit KI.png|800px|rahmenlos|zentriert]]
''Abbildung: FELIX kann zur Kurzform FIX werden (ohne E und L).''


Als strukturgebende Lernumgebung dienen '''aiMOOCs''' mit integrierten Interaktionen und Sofort-Rückmeldungen; sie werden über spezialisierte Prompts/GPTs erzeugt, fachlich gerahmt und offen publiziert und unterstützen adaptives Lernen, Mehrfachdifferenzierung und ressourcenschonende Unterrichtsvorbereitung.<ref>Glanz, Udo (2019): [[MOOCs selbst erstellen|MOOCs selbst erstellen – P4P MOOCs in Schule, Ausbildung, Studium]]. Glanz-Verlag.</ref><ref>Glanz, Udo (2025): ''[[KI-Bildungsbuffet]] – aiMOOCs in der Praxis''. Glanz-Verlag.</ref>
Als strukturgebende Lernumgebung dienen '''aiMOOCs''' mit integrierten Interaktionen und Sofort-Rückmeldungen; sie werden über spezialisierte Prompts/GPTs erzeugt, fachlich gerahmt und offen publiziert und unterstützen adaptives Lernen, Mehrfachdifferenzierung und ressourcenschonende Unterrichtsvorbereitung.<ref>Glanz, Udo (2019): [[MOOCs selbst erstellen|MOOCs selbst erstellen – P4P MOOCs in Schule, Ausbildung, Studium]]. Glanz-Verlag.</ref><ref>Glanz, Udo (2025): ''[[KI-Bildungsbuffet]] – aiMOOCs in der Praxis''. Glanz-Verlag.</ref>
Zeile 23: Zeile 47:


== Warum Feedback der Motor von Lernen ist ==
== Warum Feedback der Motor von Lernen ist ==
Feedback ist kein Zusatz, sondern die zentrale Steuergröße wirksamen Unterrichts. Lernende bewegen sich beständig zwischen einem aktuellen Leistungsstand und einem angestrebten Kompetenzziel; Feedback schließt die Lücke, indem es Orientierung gibt, Fehlerbilder sichtbar macht und konkrete nächste Schritte ausweist. Forschung zu formativer Beurteilung zeigt über Fächer und Stufen hinweg, dass nicht die Menge der Rückmeldungen, sondern deren Qualität und Einbettung in Lernhandlungen über den Lernerfolg entscheidet: Wirksam ist Feedback, wenn es zielklar, spezifisch, zeitnah und handlungsleitend ist – und wenn es in eine nachfolgende Überarbeitung mündet.<ref>Black, P.; Wiliam, D. (1998): Assessment and Classroom Learning. ''Assessment in Education'', 5(1), 7–74.</ref><ref>Hattie, J.; Timperley, H. (2007): The Power of Feedback. ''Review of Educational Research'', 77(1), 81–112.</ref><ref>Shute, V. J. (2008): Focus on Formative Feedback. ''Review of Educational Research'', 78(1), 153–189.</ref> Dieses Verständnis rahmt FELIX: Rückmeldung ist kein Ereignis am Ende, sondern ein Zyklus aus Zielklärung, Diagnose und gezielter Weiterarbeit.


Rückmeldungen sind allgegenwärtig, doch ihre Wirkung ist nicht selbstverständlich. Unpräzise, verspätete oder überladene Hinweise erzeugen kognitives Rauschen und bleiben folgenlos. Wirksam wird Feedback, wenn es an expliziten Zielen ansetzt, sich auf überprüfbare Merkmale von Produkten oder Prozessen bezieht, priorisiert ist und in konkrete Revisionen führt. Dieses Dreischritt-Muster wird als Verbindung von Zielklärung ('''Feed Up'''), Standortbestimmung ('''Feed Back''') und Handlungsplanung ('''Feed Forward''') beschrieben.<ref>Hattie, J.; Timperley, H. (2007): The Power of Feedback. ''Review of Educational Research'', 77(1), 81–112.</ref> Formative Rückmeldung begleitet Lernprozesse; summative Rückmeldung bilanziert Leistung. Beide können koexistieren, erfüllen aber unterschiedliche Zwecke. Formatives Feedback ist zielbezogen, evidenzbasiert, knapp und handlungsleitend und wird zeitnah gegeben, um die Lücke zwischen Handlung und Korrektur zu schließen.<ref>Shute, V. J. (2008): Focus on Formative Feedback. ''Review of Educational Research'', 78(1), 153–189.</ref>
== Begriffsklärungen: Feedback, Evaluation, Überarbeitung ==
In diesem Buch bezeichnet ''Feedback'' die kriterienbezogene Rückkopplung zwischen einem Lernprodukt oder Lernprozess und einem transparent gemachten Zielzustand. ''Formative'' Rückmeldung begleitet das Lernen, indem sie den Weg zum Ziel strukturiert; ''summative'' Rückmeldung bilanziert Leistungen zu einem Stichtag. Beide Formen können koexistieren, erfüllen aber unterschiedliche Zwecke. Für Lernwachstum ist die formative Funktion entscheidend, denn sie liefert präzise Hinweise, die Lernende unmittelbar in Verbesserungen übersetzen können.<ref>Shute, V. J. (2008): Focus on Formative Feedback. ''Review of Educational Research'', 78(1), 153–189.</ref> ''Evaluation'' wird hier eng gefasst als kriteriengeleitete Einschätzung durch Lernpartner:innen (Peer-Feedback) oder Mentor:innen, mit dem Ziel, Qualität zu erhöhen – nicht, Noten zu vergeben. ''Überarbeitung'' schließlich ist konstitutiver Bestandteil jeder Rückmeldung: Ohne eine sichtbare Revision bleibt Feedback pädagogisch folgenlos. FELIX macht diese drei Elemente explizit und verteilt sie auf Rollen und Stufen, sodass aus punktuellen Rückmeldungen eine verlässliche Kultur entsteht.


== Theoretische Fundamente und Implikationen ==
== Theoretische Fundamente und Implikationen ==
 
Lernen ist in weiten Teilen sozial eingebettet. Sozial-konstruktivistische Perspektiven betonen, dass Bedeutung in Interaktionen entsteht; Rückmeldungen sind deshalb als nachvollziehbarer Dialog über Kriterien zu gestalten, in dem Beispiele, Gegenbeispiele und Belege eine zentrale Rolle spielen.<ref>Black, P.; Wiliam, D. (1998): Assessment and Classroom Learning. ''Assessment in Education'', 5(1), 7–74.</ref> Wygotskys ''Zone der nächsten Entwicklung'' unterstreicht, dass Fortschritt dort besonders gut gelingt, wo Lernende knapp jenseits ihres aktuellen Kompetenzniveaus arbeiten und stützende Hilfen (Scaffolds) erhalten – sei es durch Peers, Mentor:innen, KI-Impulse oder Lehrkraft.<ref>Vygotsky, L. S. (1978): ''Mind in Society''. Harvard University Press.</ref> Die Selbstbestimmungstheorie erklärt die motivationalen Bedingungen wirksamen Feedbacks: Autonomie (Wahlmöglichkeiten und Verantwortung), Kompetenz (sichtbare Fortschritte) und soziale Eingebundenheit (wertschätzende Beziehung) müssen adressiert werden, damit Rückmeldungen nicht als Kontrolle, sondern als Unterstützung erlebt werden.<ref>Deci, E. L.; Ryan, R. M. (2000): The “What” and “Why” of Goal Pursuits. ''Psychological Inquiry'', 11(4), 227–268.</ref> Modelle selbstregulierten Lernens zeigen, dass Lernende Strategien zum Planen, Überwachen und Anpassen ihres Handelns benötigen; gut gestaltete Rückmeldungen initiieren genau diese metakognitiven Prozesse und werden in Lernjournalen dokumentiert.<ref>Zimmerman, B. J. (2002): Becoming a Self-Regulated Learner. ''Theory Into Practice'', 41(2), 64–70.</ref> Schließlich begrenzt die kognitive Belastbarkeit, wie viel Information sinnvoll verarbeitet werden kann: Wenige priorisierte Hinweise, die an Kriterien andocken und in eine konkrete Aktion münden, sind lernwirksamer als breite, unsortierte Kommentierungen.<ref>Sweller, J. (1988): Cognitive load during problem solving. ''Cognitive Science'', 12(2), 257–285.</ref> Die Feedback-Interventionstheorie ergänzt: Rückmeldungen, die Aufmerksamkeit von der Aufgabe weg auf die Person lenken, können Leistung mindern; kriterienfokussierte, aufgabennahe Impulse sind überlegen.<ref>Kluger, A. N.; DeNisi, A. (1996): The effects of feedback interventions on performance. ''Psychological Bulletin'', 119(2), 254–284.</ref>
Lernen ist ko-konstruiert: Sozial-konstruktivistische Ansätze betonen die dialogische Aushandlung von Bedeutung; folglich ist Rückmeldung als nachvollziehbarer Dialog über Kriterien zu gestalten.<ref>Black, P.; Wiliam, D. (1998): Assessment and Classroom Learning. ''Assessment in Education'', 5(1), 7–74.</ref> Die '''Zone der nächsten Entwicklung''' (ZPD) zeigt, dass Lernfortschritt unter stützender Begleitung gelingt; Scaffolding durch Peers, Mentor:innen und Lehrkraft reduziert Überforderung und beschleunigt Fortschritt.<ref>Vygotsky, L. S. (1978): ''Mind in Society''. Harvard University Press.</ref> Die '''Selbstbestimmungstheorie''' erklärt, warum Rückmeldungen dann motivierend wirken, wenn sie Autonomie unterstützen, Kompetenz sichtbar machen und soziale Eingebundenheit respektieren; daraus folgen Anforderungen an Tonalität, Wahlräume und kompetenzorientierte Formulierungen.<ref>Deci, E. L.; Ryan, R. M. (2000): The “What” and “Why” of Goal Pursuits. ''Psychological Inquiry'', 11(4), 227–268.</ref> Modelle selbstregulierten Lernens betonen Metakognition; Lernjournale, kurze Plan–Reflex–Schleifen und explizite Strategiewechsel erhöhen die Wirksamkeit von Feedback, weil Lernende Ziele setzen, überwachen und anpassen können.<ref>Zimmerman, B. J. (2002): Becoming a Self-Regulated Learner. ''Theory Into Practice'', 41(2), 64–70.</ref> Die Theorie '''kognitiver Belastung''' macht deutlich, dass Arbeitsgedächtnis knapp ist; wenige, priorisierte Hinweise mit klarer Reihenfolge sind lernwirksamer als umfangreiche, unsortierte Kataloge.<ref>Sweller, J. (1988): Cognitive load during problem solving. ''Cognitive Science'', 12(2), 257–285.</ref> Die '''Feedback-Interventionstheorie''' warnt vor personenbezogenen Rückmeldungen, die Aufmerksamkeit vom Lernziel weg lenken; kriterienfokussierte Hinweise sind überlegen.<ref>Kluger, A. N.; DeNisi, A. (1996): The effects of feedback interventions on performance. ''Psychological Bulletin'', 119(2), 254–284.</ref> Als Querschnittsthema gewinnt '''Feedback-Literacy''' an Gewicht: Lernende müssen Rückmeldungen verstehen, bewerten und in Handlungen übersetzen können.<ref>Carless, D.; Boud, D. (2018): The development of student feedback literacy. ''Assessment & Evaluation in Higher Education'', 43(8), 1315–1325.</ref>


== Designprinzipien wirksamer Rückmeldung ==
== Designprinzipien wirksamer Rückmeldung ==
 
Aus diesen Fundierungen ergeben sich klare Gestaltungsprinzipien für Unterricht und Materialentwicklung. Erstens verlangt wirksames Feedback eine transparente Ziel- und Kriterienarbeit: Lernende müssen wissen, woran Qualität erkennbar ist; Beispiele und Gegenbeispiele helfen, Kriterien zu operationalisieren. Zweitens sollten Hinweise sich auf beobachtbare Merkmale beziehen, nicht auf Intuitionen – etwa auf Textstruktur, Argumentationsqualität, Belegführung, Rechenwege oder Messprotokolle. Drittens gilt das Prioritätsprinzip: Ein einziger nächster Schritt ist oft produktiver als fünf gleichzeitige Forderungen. Viertens ist Zeitnähe zentral: Je kürzer die Lücke zwischen Handlung und Rückmeldung, desto höher die Umsetzungswahrscheinlichkeit. Fünftens schließt jeder Zyklus mit einer sichtbaren Überarbeitung und einem kurzen Reflexionsimpuls (Was wurde geändert? Warum? Welche Evidenz stützt die Änderung?). Eine kompakte Heuristik lautet: {{o}} Ziel und Kriterium benennen {{o}} beobachtbare Evidenz anführen {{o}} genau einen nächsten Schritt priorisieren {{o}} Änderung dokumentieren. Diese Logik entspricht dem Dreischritt ''Feed Up – Feed Back – Feed Forward'' und wird in Übersichtsarbeiten zu formativer Beurteilung breit gestützt.<ref>Hattie, J.; Timperley, H. (2007): The Power of Feedback. ''Review of Educational Research'', 77(1), 81–112.</ref><ref>Shute, V. J. (2008): Focus on Formative Feedback. ''Review of Educational Research'', 78(1), 153–189.</ref>
Ziele und Kriterien werden vorab transparent gemacht und mit Beispielen veranschaulicht; Rückmeldungen docken an diese Kriterien an, verweisen auf beobachtbare Merkmale, bleiben präzise und priorisieren einen machbaren nächsten Schritt; kurze, verlässliche Schleifen ersetzen unregelmäßige Großereignisse; jede Rückmeldung endet in einer kleinen, zeitnahen Revision. Verdichtete Heuristik ohne Zeilenumbrüche: {{o}} Ziele/Kriterien klären {{o}} Hinweise an Kriterien binden {{o}} Belege nennen {{o}} einen nächsten Schritt priorisieren {{o}} Revision dokumentieren. Diese Prinzipien werden in Überblicksarbeiten zu formative assessment gestützt.<ref>Black, P.; Wiliam, D. (1998): Assessment and Classroom Learning. ''Assessment in Education'', 5(1), 7–74.</ref><ref>Shute, V. J. (2008): Focus on Formative Feedback. ''Review of Educational Research'', 78(1), 153–189.</ref>


== Aufgabenqualität als Dreh- und Angelpunkt ==
== Aufgabenqualität als Dreh- und Angelpunkt ==
 
Aufgaben sind der Motor jeder Feedbackkultur. Sie definieren den Erkenntnisraum, in dem Kriterien bedeutsam werden, und erzeugen die natürlichen „Ankerpunkte“ für Rückmeldungen. Gute Aufgaben erzwingen Denken statt bloßer Reproduktion, lassen verschiedene Lösungswege zu und enthalten eingebettete Checkpunkte, an denen Zwischenstände sinnvoll überprüft werden können. Eine robuste Progression besteht aus drei Phasen: In der Verstehensphase werden Konzepte geklärt und diagnostische Kurzaufgaben genutzt, um Fehlvorstellungen sichtbar zu machen; in der Anwendungsphase wird mit Kriterien gearbeitet, die Qualität von Produkten oder Problemlösungen messbar machen; in der Transferphase wird das Gelernte auf neue Kontexte übertragen. Digitale aiMOOCs erleichtern diese Architektur, indem sie Sofort-Rückmeldungen für formale und grundlegende Aspekte bereitstellen (z. B. Format, Struktur, Basiskorrektheit), während anspruchsvollere Qualitätsmerkmale (z. B. Argumentationslogik, empirische Angemessenheit, Modellgüte) über Peer-Dialoge, Mentoring, KI-Impulse und Lehrkraft-Feedback adressiert werden.<ref>Glanz, Udo (2019): [[MOOCs selbst erstellen|MOOCs selbst erstellen – P4P MOOCs in Schule, Ausbildung, Studium]]. Glanz-Verlag.</ref><ref>Glanz, Udo (2025): ''[[KI-Bildungsbuffet]] – aiMOOCs in der Praxis''. Glanz-Verlag.</ref> Aus Sicht der kognitiven Belastung bewähren sich dabei kleinschrittige Aufgabenketten, Beispiel–Gegenbeispiel-Paare und fokussierte Kriterienraster, die extrinsische Belastung reduzieren und die aufgabenrelevante Verarbeitung stärken.<ref>Sweller, J. (1988): Cognitive load during problem solving. ''Cognitive Science'', 12(2), 257–285.</ref>
Ohne gute Aufgaben keine gute Rückmeldung. Aufgaben sollen Denken erzwingen, nicht nur Reproduktion, und natürliche Feedbackpunkte enthalten. Eine praktikable Progression lautet Verstehen – Anwenden – Transfer; jede Phase besitzt einen vorgesehenen Rückmeldeanlass und eine dokumentierte Anschlussaktion. In digitalen Kursen wie '''aiMOOCs''' lassen sich Sofort-Rückmeldungen zu Struktur oder Basisrichtigkeit einbetten; vertiefende Rückmeldungen folgen dialogisch durch Peers, Mentor:innen, KI und Lehrkraft.<ref>Glanz, Udo (2019): [[MOOCs selbst erstellen|MOOCs selbst erstellen – P4P MOOCs in Schule, Ausbildung, Studium]]. Glanz-Verlag.</ref><ref>Glanz, Udo (2025): ''[[KI-Bildungsbuffet]] – aiMOOCs in der Praxis''. Glanz-Verlag.</ref> Aufgabenqualität ist auch eine Frage der kognitiven Laststeuerung: Teilaufgaben, Beispiel–Gegenbeispiel-Paare und fokussierte Kriterienraster reduzieren Extraneous Load und erhöhen Germane Load.<ref>Sweller, J. (1988): Cognitive load during problem solving. ''Cognitive Science'', 12(2), 257–285.</ref>


== Prozessarchitektur eines lernwirksamen Zyklus ==
== Prozessarchitektur eines lernwirksamen Zyklus ==
 
Ein zielführender Feedbackzyklus in FELIX beginnt mit einer kurzen Ziel- und Kriterienklärung, die nicht nur verbal, sondern mit Artefakten (Beispiel, Gegenbeispiel, Kurzrubrik) abgesichert wird. Es folgt ein Erstentwurf oder eine Erstlösung; eingebettete Systemhinweise (z. B. im aiMOOC) prüfen formale Mindeststandards. Darauf baut eine dialogische Sequenz auf: ein kurzer, kriteriengeleiteter Peer-Austausch mit einer priorisierten Empfehlung; bei Bedarf ein 10–15-minütiges Mentoring-Fenster für strukturierende Unterstützung; anschließend ein KI-Impuls zu genau einem fokussierten Aspekt (z. B. Klarheit von Definitionen, Kohärenz eines Beweisschrittes, Angemessenheit einer Datenvisualisierung); schließlich das Meta-Feedback der Lehrkraft, das gewichtet, priorisiert und auf Transferchancen hinlenkt. Jede Rückmeldestufe endet mit einer konkret geplanten Änderung, die im Lernjournal dokumentiert wird (Ziel – Hinweis – Aktion – Evidenz – Reflexion). Diese Architektur verbindet hohe Frequenz mit kognitiver Steuerbarkeit und macht Fortschritt sichtbar.<ref>Zimmerman, B. J. (2002): Becoming a Self-Regulated Learner. ''Theory Into Practice'', 41(2), 64–70.</ref><ref>Hattie, J.; Timperley, H. (2007): The Power of Feedback. ''Review of Educational Research'', 77(1), 81–112.</ref>
Ein vollständiger Zyklus umfasst Ziel- und Kriterienklärung, Entwurf, mehrstufige Rückmeldungen und Revision. Eine praxistaugliche Abfolge ist: eingebettete Mikrohints im aiMOOC (formale/strukturbezogene Checks), kriteriengeleitete Peer-Hinweise, optional ein kurzes Mentoring-Fenster (Strukturhilfe), KI-Impulse zu genau einem priorisierten Aspekt, abschließende Fokushinweise der Lehrkraft. Wesentlich ist die Verbindlichkeit der Überarbeitung: Jede Rückmeldung führt zu einer kleinen, zeitnahen Revision, dokumentiert im Lernjournal (Sichtbarkeit und Selbstregulation).<ref>Zimmerman, B. J. (2002): Becoming a Self-Regulated Learner. ''Theory Into Practice'', 41(2), 64–70.</ref> Ein Minimalstandard lautet: Zwei Stärken – ein nächster Schritt – Frist – Evidenznachweis.


== Rollen und geteilte Verantwortung in FELIX/FIX ==
== Rollen und geteilte Verantwortung in FELIX/FIX ==
 
FELIX verteilt Verantwortung auf fünf Rollen, die sich ergänzen und gegenseitig absichern. Lernende sind aktive Akteure: Sie bringen Ziele, Zwischenstände und Belege ein, entscheiden mit, welchen Hinweis sie zuerst umsetzen, und dokumentieren ihre Änderungen. Peers steigern die Dichte und Vielfalt von Rückmeldungen; richtig angeleitet, erhöhen sie die Kriteriensensibilität der ganzen Lerngruppe und professionalisieren die Sprache des Feedbacks.<ref>Carless, D.; Boud, D. (2018): The development of student feedback literacy. ''Assessment & Evaluation in Higher Education'', 43(8), 1315–1325.</ref><ref>Topping, K. J. (1998): Peer assessment between students in colleges and universities. ''Review of Educational Research'', 68(3), 249–276.</ref> Mentor:innen bieten über das Peer-Niveau hinaus strukturierende Kurzinterventionen in der ZPD; sie helfen, Denkwege zu ordnen, ohne Lösungen vorzugeben.<ref>Vygotsky, L. S. (1978): ''Mind in Society''. Harvard University Press.</ref> KI-Assistenten liefern hochfrequente, kriteriennahe Impulse, generieren Beispiele, prüfen Formate und schlagen nächste Schritte vor – stets gekennzeichnet, fachlich geprüft und in didaktische Routinen eingebettet.<ref>Shute, V. J. (2008): Focus on Formative Feedback. ''Review of Educational Research'', 78(1), 153–189.</ref> Die Lehrkraft fungiert als Xpert: Sie priorisiert, gewichtet und rahmt, sorgt für Anschluss an Standards, Fairness, Datenschutz und Barrierefreiheit und behält den langfristigen Kompetenzaufbau im Blick.<ref>Hattie, J.; Timperley, H. (2007): The Power of Feedback. ''Review of Educational Research'', 77(1), 81–112.</ref>
Rollen werden klar beschrieben und greifen ineinander: Lernende bringen Ziele und Entwürfe ein, reflektieren Rückmeldungen und dokumentieren Revisionen; Peers erhöhen die Dichte und Vielfalt kriterienorientierter Hinweise; Mentor:innen liefern kurzzeitige, fachlich fokussierte Strukturhilfe; KI-Assistenten erzeugen diagnostische Impulse, Beispiele und Vorschläge für nächste Schritte, die transparent gemacht und fachlich geprüft werden; die Lehrkraft (Xpert) priorisiert, validiert und reflektiert und sichert Anschluss an Standards, Passung, Fairness und Datenschutz.<ref>Carless, D.; Boud, D. (2018): The development of student feedback literacy. ''Assessment & Evaluation in Higher Education'', 43(8), 1315–1325.</ref><ref>Shute, V. J. (2008): Focus on Formative Feedback. ''Review of Educational Research'', 78(1), 153–189.</ref><ref>Hattie, J.; Timperley, H. (2007): The Power of Feedback. ''Review of Educational Research'', 77(1), 81–112.</ref>


== KI als Verstärker: Potenziale, Grenzen und Leitplanken ==
== KI als Verstärker: Potenziale, Grenzen und Leitplanken ==
 
KI kann diagnostische Präzision und Rückmeldefrequenz deutlich erhöhen. Sie erkennt Muster in Texten, Rechnungen oder Messdaten, generiert Vergleichsbeispiele und operationalisiert Kriterien, etwa indem sie typische Fehlerschritte markiert und Alternativen aufzeigt. Doch gerade weil KI leistungsfähig ist, braucht sie pädagogische Leitplanken: Transparenz über ihren Einsatz (Kennzeichnung, Quellenlage), fachliche Prüfung kritischer Hinweise, Datensparsamkeit und klare Speicherfristen, Bias-Achtsamkeit (z. B. Diversitätschecks bei Beispielen) sowie barrierearme Formate. Ein kompetenzbasiertes Zugangsmodell – ''Vertrauensstufen'' – stellt sicher, dass Lernende Funktionen schrittweise freischalten, wenn sie zeigen, dass sie Feedback verantwortungsvoll nutzen (z. B. nach bestandenem Tablet- und KI-Führerschein).<ref>Glanz, Udo (2024): ''[[Vertrauensstufen|Vertrauensstufen mit KI-Einsatz in der Bildung]]''. Glanz-Verlag.</ref> So wird KI zum Verstärker einer bereits tragfähigen Feedbackkultur – nicht zu deren Ersatz.
KI kann typische Fehlermuster erkennen, Beispiele generieren, Kriterien operationalisieren und adaptive Lernpfade vorschlagen. Damit daraus Lerngewinn entsteht, braucht es Leitplanken: Transparenz über Einsatz und Grenzen (Kennzeichnung), fachliche Prüfung kritischer Punkte durch die Lehrkraft, Schutz personenbezogener Daten und Datensparsamkeit, Bias-Achtsamkeit und barrierearme Formate sowie kompetenzbasierte Zugänge ('''Vertrauensstufen''' wie Tablet-/KI-Führerschein).<ref>Glanz, Udo (2024): ''[[Vertrauensstufen|Vertrauensstufen mit KI-Einsatz in der Bildung]]''. Glanz-Verlag.</ref> KI ersetzt nicht die pädagogische Entscheidung; sie erweitert die Handlungsfähigkeit aller Beteiligten, wenn sie in prüfbare Routinen eingebettet ist.


== Häufige Missverständnisse und Gegenstrategien ==
== Häufige Missverständnisse und Gegenstrategien ==
Drei verbreitete Missverständnisse behindern wirksame Rückmeldungen. Erstens: ''Mehr ist besser.'' Empirisch belastbar ist das Gegenteil – wenige, priorisierte Hinweise mit hohem Umsetzungsgrad schlagen umfangreiche Kommentarlisten.<ref>Shute, V. J. (2008): Focus on Formative Feedback. ''Review of Educational Research'', 78(1), 153–189.</ref> Zweitens: ''Lob genügt.'' Wertschätzung ist wichtig, ersetzt aber keine kriteriengeleitete Anleitung zur Verbesserung. Drittens: ''Die KI macht es schon.'' Ohne didaktische Rahmung, Kriterienklarheit und eine verbindliche Überarbeitungsphase produziert selbst gute KI-Rückmeldung kaum Lerngewinn. Gegenstrategien sind transparente Kriterienarbeit, kurze, planbare Schleifen, explizite Überarbeitungsaufträge, Lernjournale sowie eine systematische Schulung in Feedback-Literacy, damit Lernende Rückmeldungen verstehen, bewerten und in Handlungen überführen können.<ref>Carless, D.; Boud, D. (2018): The development of student feedback literacy. ''Assessment & Evaluation in Higher Education'', 43(8), 1315–1325.</ref>


Irrtümer: „Mehr ist besser“ (wirksam sind wenige, priorisierte Hinweise), „Lob genügt“ (Wertschätzung ersetzt keine Kriterienarbeit), „Die KI macht es schon“ (ohne didaktische Rahmung und Revision bleibt Feedback folgenlos). Gegenstrategien: transparente Kriterien, kurze Schleifen, explizite Überarbeitungsaufträge, Lernjournale, Schulung in Feedback-Literacy.<ref>Carless, D.; Boud, D. (2018): The development of student feedback literacy. ''Assessment & Evaluation in Higher Education'', 43(8), 1315–1325.</ref><ref>Shute, V. J. (2008): Focus on Formative Feedback. ''Review of Educational Research'', 78(1), 153–189.</ref>
== Übergang zu Teil II ==
Die in Teil I entwickelten Prinzipien bilden das Fundament für das Modell FELIX. In Teil II werden die fünf Stufen – Free Learning, Evaluation, Learning Mentor, Interactive Feedback und Xpert – im Detail entfaltet. Jede Stufe erhält klare Ziele, typische Inputs und Outputs, Qualitätskriterien, wiederkehrende Routinen sowie konkrete Gegenmittel gegen häufige Fehlsteuerungen. Zugleich wird die Kurzform FIX erläutert, die – wo Ressourcen fehlen oder Passung nicht gegeben ist – die Logik von Ziel – Diagnose – nächster Schritt mit drei Stufen aufrechterhält.
<br>
<br>
----
<br>
<br>


----


= Teil II: Das Modell FELIX im Detail =
= Teil II: Das Modell FELIX im Detail =


== F – '''Free Learning''' (aiMOOCs mit Sofort-Feedback) ==
== F – '''Free Learning''' (aiMOOCs mit Sofort-Feedback) ==
'''Ziel und didaktische Logik.''' Free Learning ist das Eingangstor der FELIX-Architektur. Lernende arbeiten selbstgesteuert in strukturierten, offen zugänglichen Lernkursen (aiMOOCs), die Inhalte, Aktivitäten und unmittelbar wirksame Mikrorückmeldungen verbinden. Die Stufe F schafft einen verlässlichen Grundtakt: Vor jeder sozialen oder professionellen Rückmeldung wird Basisqualität hergestellt (Form, Struktur, elementare Richtigkeit). Dadurch werden spätere Feedbackressourcen (Peers, Mentor:innen, Lehrkraft) entlastet und können sich auf höherwertige Qualitätsmerkmale konzentrieren – Argumentationslogik, Problemstrategien, Modellgüte. Diese Vorstrukturierung entspricht der Einsicht, dass kurze, häufige und kriteriennahe Rückmeldeschleifen die lernwirksamsten sind.<ref>Hattie, J.; Timperley, H. (2007): The Power of Feedback. ''Review of Educational Research'', 77(1), 81–112.</ref><ref>Shute, V. J. (2008): Focus on Formative Feedback. ''Review of Educational Research'', 78(1), 153–189.</ref>
'''Struktur und Ablauf.''' Ein aiMOOC beginnt mit einer expliziten Ziel- und Kriterienklärung, illustriert durch Beispiel und Gegenbeispiel. Es folgt eine Folge kleiner Aufgaben, die jeweils einen eingebetteten Check enthalten (z. B. Formatprüfung, Strukturhinweis, grundlegende Richtigkeitskontrolle). Lernende erhalten sofortige, knappe Mikrohints, setzen eine Mini-Revision um und dokumentieren diese im Lernjournal (Ziel – Hinweis – Aktion – Evidenz). Auf diese Weise entstehen beobachtbare Spuren des Lernens, die in den Folgestufen (E, L, I, X) aufgegriffen und verdichtet werden. Die aiMOOC-Umgebung eignet sich dafür, weil sie Interaktion, offene Publikation und differenzierbare Pfade verbindet.<ref>Glanz, Udo (2019): [[MOOCs selbst erstellen|MOOCs selbst erstellen – P4P MOOCs in Schule, Ausbildung, Studium]]. Glanz-Verlag.</ref><ref>Glanz, Udo (2025): ''[[KI-Bildungsbuffet]] – aiMOOCs in der Praxis''. Glanz-Verlag.</ref>


'''Ziel und Logik''' – Lernende arbeiten selbstgesteuert in kuratierten aiMOOCs. Eingebettete Interaktionen liefern unmittelbare, häufig automatisierbare Rückmeldungen (Format, Struktur, Grundlagenrichtigkeit). So wird eine Basisqualität gesichert, bevor soziale und professionelle Rückmeldungen anschließen.<ref>Glanz, Udo (2019): [[MOOCs selbst erstellen|MOOCs selbst erstellen – P4P MOOCs in Schule, Ausbildung, Studium]]. Glanz-Verlag.</ref>
'''Qualitätskriterien und Heuristiken.''' Wirksam ist F, wenn Kriterien sichtbar und operationalisiert sind, Aufgabenprogression kleinschrittig verläuft und Mikrohints strikt auf ein Merkmal zielen. Eine kompakte Heuristik lautet: {{o}} Kriterium zuerst sichtbar machen {{o}} maximal zwei Mikrohints pro Aufgabe {{o}} genau ein nächster Schritt {{o}} Mini-Revision mit Evidenz. Diese Fokussierung schont Arbeitsgedächtnisressourcen und erhöht die Wahrscheinlichkeit, dass Hinweise umgesetzt werden.<ref>Sweller, J. (1988): Cognitive load during problem solving. ''Cognitive Science'', 12(2), 257–285.</ref>


'''Inputs/Outputs''' – Input: Lernziel, Kriterien, Aufgabenpfad; Output: Entwurf mit Protokoll der Systemrückmeldungen, markierte Überarbeitungen. '''Qualitätskriterien''' – Kriterienklarheit im Kurs, kleinschrittige Aufgabenprogression, klare Trigger für Mikrohints, Vermeidung von Überfrachtung (Cognitive Load).<ref>Sweller, J. (1988): Cognitive load during problem solving. ''Cognitive Science'', 12(2), 257–285.</ref>
'''Häufige Fehlsteuerungen und Gegenmittel.''' Typische Probleme sind überfrachtete Aufgaben, unklare Kriterien oder zu lange Hints. Gegenmittel sind eine klare Kriterienkarte am Aufgabenbeginn, Beispiel–Gegenbeispiel-Paare, strikte Längenbegrenzung für Hints und verpflichtende Mini-Revisionen. F dient nicht der Vollkorrektur, sondern der Basisstabilisierung; alles Weitere folgt in E, L, I, X.


'''Didaktische Routinen''' – Vorab Kriterien sichtbar machen; Beispiel–Gegenbeispiel anzeigen; Mikrohints limitieren; verpflichtende Mini-Revision (z. B. „Markiere eine Änderung und begründe sie“). '''Typische Fehlsteuerungen''' – Zu viele Hints, unklare Kriterien, fehlende Anschlussaufträge. '''Gegenmittel''' – Minimalheuristik ohne Zeilenumbruch: {{o}} Kriterium zuerst {{o}} maximal 2 Hints {{o}} ein nächster Schritt {{o}} Revision belegen.
'''Dokumentation und Anschluss.''' Jede Aufgabe erzeugt eine kurze Spur im Lernjournal. Diese Dokumentation erlaubt späteren Rollen (Peers, Mentor:innen, Lehrkraft), gezielt dort einzusetzen, wo der Lernprozess stockt, und verhindert redundante Rückmeldungen.
 
----


== E – '''Evaluation''' (Peer-Feedback) ==
== E – '''Evaluation''' (Peer-Feedback) ==
'''Ziel und didaktische Logik.''' Evaluation ist kriteriengeleitetes Peer-Feedback als strukturierte, soziale Qualitätsprüfung. Sie erweitert Perspektiven, trainiert Feedback-Literacy und verankert die Sprache der Kriterien im Klassenraum. Dabei ersetzt sie keine Bewertung, sondern liefert handlungsleitende Entwicklungshinweise. Das dialogische Moment ist zentral: In der ko-konstruktiven Auseinandersetzung über Belege und Qualitätsmerkmale verdichten Lernende ihr Verständnis von „guter Arbeit“. Forschung zeigt, dass Peers – gut angeleitet – sowohl Leistung als auch Metakognition positiv beeinflussen können.<ref>Topping, K. J. (1998): Peer assessment between students in colleges and universities. ''Review of Educational Research'', 68(3), 249–276.</ref><ref>Carless, D.; Boud, D. (2018): The development of student feedback literacy. ''Assessment & Evaluation in Higher Education'', 43(8), 1315–1325.</ref>
'''Struktur und Ablauf.''' Nach F bringt jedes Team ein Zwischenprodukt mit klar benannter Ziel-Kriterium-Kombination ein. Peers prüfen an genau diesem Fokus, benennen eine evidenzbasierte Stärke und einen priorisierten nächsten Schritt, der in der verfügbaren Zeit realistisch ist. Der Austausch ist zeitlich knapp gehalten und folgt Satzstartern („Ich sehe Kriterium X belegt in …; ein nächster Schritt wäre …, weil …“). Anschließend setzen Lernende einen einzigen Verbesserungsschritt um und dokumentieren ihn.


'''Ziel und Logik''' – Peers prüfen an Kriterien, erweitern Perspektiven und trainieren Feedback-Literacy. Sie liefern keine Noten, sondern Entwicklungsimpulse.<ref>Topping, K. J. (1998): Peer assessment between students. ''Review of Educational Research'', 68(3), 249–276.</ref><ref>Carless, D.; Boud, D. (2018): The development of student feedback literacy. ''Assessment & Evaluation in Higher Education'', 43(8), 1315–1325.</ref>
'''Qualitätskriterien und Heuristiken.''' Qualität entsteht über Fokussierung, Sprachstützen und Evidenzpflicht. Eine verdichtete Heuristik lautet: {{o}} ein Kriterium {{o}} ein Beleg {{o}} ein nächster Schritt {{o}} sofortige Umsetzung. Diese Regel verhindert „Gefälligkeitsfeedback“ und vage Allgemeinplätze und lenkt Aufmerksamkeit auf das, was den größten Lerngewinn verspricht.


'''Qualitätssicherung''' – Kurzes Training; Satzstarter („Ich sehe Beleg für Kriterium … in …“), ein priorisierter nächster Schritt, Zeitfenster kurz halten. '''Artefakt''' Peer-Feedback-Karte (Kriterium Evidenz nächster Schritt). '''Fallstricke''' – Allgemeinplätze, Personbezug, „Gefälligkeitsfeedback“. '''Gegenmittel''' – Kriterienstarter, Beispiel–Gegenbeispiel, Selbstcheck.
'''Häufige Fehlsteuerungen und Gegenmittel.''' Gefahren sind Personenbezug, ausufernde Diskussionen und Multi-Topic-Feedback. Gegenmittel: Kriterienstarter, zeitliche Taktung (z. B. 2 + 2 + 1 Minuten für Beleg – Schritt – Vereinbarung), Peer-Checklisten mit Minimalanforderungen (Belegpflicht) und die explizite Trennung von Würdigung und Diagnose.
 
'''Dokumentation und Anschluss.''' Die Peer-Feedback-Karte (Kriterium, Evidenz, nächster Schritt) wird dem Lernjournal beigefügt. Sie ist Ausgangspunkt für L oder I und ermöglicht der Lehrkraft in X, Prioritäten transparent nachzuvollziehen.
 
----


== L – '''Learning Mentor''' (gezielte Expertenstütze) ==
== L – '''Learning Mentor''' (gezielte Expertenstütze) ==
'''Ziel und didaktische Logik.''' Learning Mentors sind thematisch versierte Lernende oder geschulte Schüler-Expert:innen, die über das Peer-Niveau hinaus kurzzeitige Strukturhilfe bieten. Sie wirken als „Brücke“ in der Zone der nächsten Entwicklung: Wenn Peers an Grenzen stoßen (z. B. bei komplexer Argumentation oder Modellierung), strukturieren Mentor:innen Denkwege, ohne Lösungen vorzugeben. Das Prinzip „Lernen durch Lehren“ steigert zugleich das Verständnis der Mentor:innen selbst.<ref>Vygotsky, L. S. (1978): ''Mind in Society''. Harvard University Press.</ref><ref>Glanz, Udo (2024): ''[[KI-Medienmentoren]] – Eine Einführung in Medienbildung mit KI''. Glanz-Verlag.</ref>
'''Struktur und Ablauf.''' Mentoring erfolgt in klar begrenzten 10–15-Minuten-Slots. Vor Beginn formuliert die Ratsuchende Person einen fokussierten Bedarf (z. B. „Kriterium: Kohärenz der Argumentation; Problem: Sprung zwischen Beleg A und Schluss B“). Die Mentor:in liefert maximal zwei Interventionen: eine Strukturierung (z. B. Argument-Template) und eine Leitfrage. Nach der Sitzung wird eine einzige Änderung vereinbart und nach kurzer Zeit kontrolliert (Follow-up).
'''Qualitätskriterien und Heuristiken.''' Wirksam ist L, wenn es fokussiert, zeitlich knapp und evidenzorientiert bleibt. Eine Heuristik – ohne Zeilenumbruch – lautet: {{o}} Bedarf präzisieren {{o}} zwei Interventionen maximal {{o}} eine Änderung vereinbaren {{o}} Follow-up terminieren. So wird verhindert, dass Mentoring in umfangreiche Nachhilfe ausufert.
'''Häufige Fehlsteuerungen und Gegenmittel.''' Risiken sind Überbetreuung (Reduktion der Eigenaktivität), Lösungsvorwegnahme oder Rollenvermischung mit der Lehrkraft. Gegenmittel: Rollenklarheit (Scaffolding statt Korrektorat), Protokollpflicht (Problem – Intervention – Wirkung – Follow-up) und zyklische Rotation der Mentor:innen zur Fairness.


'''Ziel und Logik''' Mentoring bietet zeitlich begrenzte, fachlich vertiefte Strukturhilfe jenseits des Peer-Niveaus (ZPD).<ref>Vygotsky, L. S. (1978): ''Mind in Society''. Harvard University Press.</ref> '''Prozesse''' – Matching nach Bedarf, 10–15-Minuten-Slots, schriftliche Kurzdiagnose, maximal zwei Interventionen, Follow-up nach einer Revision. '''Abgrenzung''' – Kein Korrektorat, kein dauerhaftes Tutoring, sondern gezieltes Scaffolding. <ref>Glanz, Udo (2024): ''[[KI-Medienmentoren]] – Eine Einführung in Medienbildung mit KI''. Glanz-Verlag.</ref>
'''Dokumentation und Anschluss.''' Das Mentoring-Protokoll wird dem Lernjournal beigefügt; es zeigt, welche Strukturhilfe gegeben wurde und welche Wirkung erwartet wird. Diese Transparenz erleichtert den Übergang zu I und X.
 
----


== I – '''Interactive Feedback''' (KI-gestützte Impulse) ==
== I – '''Interactive Feedback''' (KI-gestützte Impulse) ==
'''Ziel und didaktische Logik.''' In I liefert KI kriteriennahe, hochfrequente Impulse, ohne Lösungen vorwegzunehmen. Sie diagnostiziert Fehlermuster, erzeugt Gegenbeispiele, prüft Formatkriterien und schlägt nächste Schritte vor. Ihr größter Vorteil liegt in der Taktung: Hinweise erscheinen genau dann, wenn sie gebraucht werden, und können individualisiert werden – stets unter pädagogischer Rahmung und mit klarer Kennzeichnung als KI-Hinweis.<ref>Shute, V. J. (2008): Focus on Formative Feedback. ''Review of Educational Research'', 78(1), 153–189.</ref>


'''Ziel und Logik''' KI liefert hochfrequente, kriteriennahe Impulse ohne Lösungsvorwegnahme; sie unterstützt Diagnose, Beispielgenerierung und Formatchecks.<ref>Shute, V. J. (2008): Focus on Formative Feedback. ''Review of Educational Research'', 78(1), 153–189.</ref> '''Leitplanken''' – Kennzeichnung, fachliche Prüfung kritischer Hinweise, Datensparsamkeit, Barrierefreiheit, stufenweise Freischaltung (Vertrauensstufen).<ref>Glanz, Udo (2024): ''[[Vertrauensstufen|Vertrauensstufen mit KI-Einsatz in der Bildung]]''. Glanz-Verlag.</ref>
'''Struktur und Ablauf.''' Lernende übergeben der KI einen gezielten Auftrag, der an Kriterien andockt (z. B. „Prüfe Kohärenz meiner Begründung gemäß Kriterium X“). Die KI antwortet in einem festen Format: zwei Stärken, ein priorisierter nächster Schritt, optional eine Leitfrage oder ein Minimal-/Gegenbeispiel. Die Lehrkraft definiert vorher, welche Aspekte automatisiert geprüft werden dürfen und wo menschliche Prüfung zwingend ist. Optional kommen spezialisierte GPTs (z. B. der [https://chatgpt.com/g/g-67330d0027f08190a3fa4bc890763fdf-feedback-schulaufgabe Feedback-Schulaufgabe-GPT]) zum Einsatz; in sensiblen Kontexten sind Offline-Varianten sinnvoll. Vertrauensstufen regeln, welche Funktionen Lernende nutzen dürfen und wann (z. B. nach bestandenem [[Tablet-Führerschein]] und [[KI-Führerschein]]).<ref>Glanz, Udo (2024): ''[[Vertrauensstufen|Vertrauensstufen mit KI-Einsatz in der Bildung]]''. Glanz-Verlag.</ref>


'''Prompt-Bausteine''' – kompakt und ohne Zeilenumbruch: {{o}} „Prüfe Kriterium X/Y, nenne 2 Stärken und 1 nächsten Schritt – ohne Lösung zu verraten“ {{o}} „Formuliere 3 Leitfragen, die mich zu einer Verbesserung von Abschnitt Z führen“ {{o}} „Gib ein Minimal- und ein Gegenbeispiel für Konzept Q“.
'''Qualitätskriterien und Heuristiken.''' Damit I lernwirksam bleibt, gelten klare Leitplanken: Kennzeichnung aller KI-Hinweise; Bezug auf Kriterien und beobachtbare Evidenz; keine Lösungsvorwegnahme; ein einziger, machbarer nächster Schritt; verpflichtende Mini-Revision. Eine kompakte Prompt-Heuristik – ohne Zeilenumbruch – lautet: {{o}} „Prüfe Kriterium X/Y an meinem Abschnitt Z {{o}} nenne 2 Stärken {{o}} formuliere 1 nächsten Schritt {{o}} stelle 1 Leitfrage – ohne die Lösung zu verraten“.
 
'''Häufige Fehlsteuerungen und Gegenmittel.''' Risiken sind Überabhängigkeit („KI wird schon richten“), zu breite Hinweise, fehlende Anschlussaktionen oder Datenschutzprobleme. Gegenmittel: Mensch-im-Loop-Prinzip (Lehrkraft priorisiert kritische Punkte), strenge Längenbegrenzung, Pflicht zur Revision mit Nachweis, Datensparsamkeit und klare Speicherregeln. KI ergänzt, ersetzt aber keine professionelle Entscheidung.
 
'''Dokumentation und Anschluss.''' KI-Hinweise werden im Lernjournal als solche markiert, die umgesetzte Änderung wird kurz begründet. Diese Spur ist Ausgangspunkt für X und verhindert, dass in der Lehrkraft-Konferenz Altes wiederholt wird.
 
----


== X – '''Xpert''' (Lehrkraft als letzte Instanz) ==
== X – '''Xpert''' (Lehrkraft als letzte Instanz) ==
'''Ziel und didaktische Logik.''' X bündelt, gewichtet und rahmt: Die Lehrkraft sichtet die Spuren aus F, E, L und I, priorisiert Hinweise, trifft fachliche Urteile, moderiert Zielanpassungen und empfiehlt nächste Lernschritte. Sie ist Garantin für fachliche Korrektheit, Passung, Fairness, Datenschutz und Barrierefreiheit und verknüpft die aktuelle Aufgabe mit längerfristigen Kompetenzzielen. Die Forschung ordnet diese Meta-Feedback-Rolle zentral ein: Sie entscheidet darüber, ob Rückmeldungen in nachhaltigen Kompetenzaufbau münden.<ref>Hattie, J.; Timperley, H. (2007): The Power of Feedback. ''Review of Educational Research'', 77(1), 81–112.</ref>
'''Struktur und Ablauf.''' Eine 5-Minuten-Lernkonferenz pro Team reicht oft: Kurzdiagnose anhand der Journalspuren, zwei Fokuspunkte (eine Stärke, ein Entwicklungsfeld), eine konkrete Empfehlung (z. B. „Wiederhole Argumentbaustein B und belege ihn, dann wähle Aufgabe T zur Transfersicherung“), Verabredung einer Frist. Wenn nötig, ordnet die Lehrkraft die Reihenfolge künftiger Lernpfade und verweist auf Ressourcenkacheln (Beispiele, Rubriken, Kurzhilfen).


'''Ziel und Logik''' – Die Lehrkraft gewichtet, priorisiert, rahmt und verbindet die Ebenen; sie verantwortet fachliche Korrektheit, Passung, Fairness und Transfer. '''Werkzeuge''' Kurzrubriken, 5-Minuten-Konferenzen, Lernpfad-Empfehlungen, Portfolio-Sichtung. '''Meta-Feedback''' Fokussiert auf Lernstrategien, Fehlerkategorien, Qualitätsmerkmale, Transfergelegenheiten.<ref>Hattie, J.; Timperley, H. (2007): The Power of Feedback. ''Review of Educational Research'', 77(1), 81–112.</ref>
'''Qualitätskriterien und Heuristiken.''' X ist wirksam, wenn es knappe, strategische Impulse liefert, die an Ziele und Kriterien andocken, Anschluss an Standards sichern und den Transfer vorbereiten. Eine Heuristik ohne Zeilenumbruch lautet: {{o}} Diagnose aus Spuren {{o}} ein strategischer Fokus {{o}} ein Transferauftrag {{o}} klare Frist und Evidenzform.


== Hinweis: '''FIX''' als Kurzform ==
'''Häufige Fehlsteuerungen und Gegenmittel.''' Gefahren sind Detailversinken, „Überkommentieren“ und Doppelung bereits gegebener Hinweise. Gegenmittel: strikte Orientierung an Journalspuren, Verzicht auf Wiederholung, Fokus auf Strategien statt Kleinstfehler, Transferorientierung (neue Situation, gleiches Kriterium).


Die Stufen '''E – Evaluation''' und '''L Learning Mentor''' sind optional und können – wenn sie im konkreten Setting fehlen oder nicht angemessen erscheinen – übersprungen werden; die Logik bleibt erhalten. Aus FELIX wird das Drei-Schritt-Modell '''FIX'''. '''FIX''' ist doppelt passend: Es ist schneller umsetzbar (umgangssprachlich „fix“) und „to fix“ bedeutet etwas beheben/festigen – das reduzierte Modell ermöglicht unmittelbares maschinelles Feedback und professionelle Rahmung, sodass Lernhindernisse gezielt „gefixt“ werden.
'''Dokumentation und Anschluss.''' Das Xpert-Feedback schließt den Zyklus mit einer sichtbaren Entscheidung: Was bleibt, was wird geändert, was wird transferiert? Mit dieser Entscheidung beginnt die nächste Runde – FELIX ist ein Rhythmus, kein einmaliger Akt.


----
----


= Teil III: Umsetzung in der Schule =
== Hinweis: '''FIX''' als Kurzform ==
Die Stufen '''E – Evaluation''' und '''L – Learning Mentor''' sind optional. Fehlen Peer- oder Mentorenstrukturen, können sie übersprungen werden, ohne die Grundlogik zu verlieren: Ziel klären, Stand diagnostizieren, nächsten Schritt umsetzen. Aus FELIX wird '''FIX''' – schneller im Vollzug (umgangssprachlich „fix“) und zugleich reparierend/festigend im Sinne von „to fix“. FIX fokussiert die Pipeline '''F → I → X''': Basisklärung und Sofort-Rückmeldung im aiMOOC, interaktive, kriteriennahe KI-Impulse, abschließendes Meta-Feedback der Lehrkraft. Diese Kurzform ist besonders geeignet bei Zeitdruck, in neuen Setups oder als Brücke, bis Peer- und Mentorenformate aufgebaut sind. Wichtig bleibt die Verbindlichkeit der Revision und die Dokumentation im Lernjournal, damit auch in FIX jeder Hinweis in beobachtbare Veränderung überführt wird.


== Einführung und Skalierung ==
----


Schulentwicklung verläuft iterativ: Pilotkurse auswählen, Kriterienraster und Lernjournal standardisieren, Kollegiale Hospitationen vereinbaren, Fortbildung in Feedback-Literacy und KI-Leitplanken durchführen, curriculare Verankerung vornehmen, Qualitätssicherung etablieren. Zuständigkeiten klären (Steuergruppe, Technik, Datenschutz, Fachgruppen). Policy-Bausteine: Vertrauensstufen, Führerscheine, Vorlagenpool. '''Erfolgsindikatoren''' kompakt: {{o}} Transparenz {{o}} Frequenz {{o}} Passung {{o}} Wirkung {{o}} Sicherheit.
== Übergang zu Teil III ==
Mit FELIX liegt ein vollständiger Ablaufplan vor, der Rollen trennt, Kriterien sichtbar macht und Überarbeitung als Regelfall etabliert. Teil III zeigt, wie Schulen diese Architektur stufenweise einführen, wie Unterrichtsdesigns für verschiedene Fächer aussehen, welche Vorlagen den Alltag erleichtern und wie Qualität über Hospitation, Dokumentationsspuren und kurze Auswertungsroutinen gesichert werden kann.
<br>
<br>
----
<br>
<br>
<br>


== Unterrichtsdesign mit FELIX/FIX ==


'''Szenario Sprache''' – aiMOOC „Analyse Kurzgeschichte“ (Sofort-Feedback zu Struktur), Peer-Feedback an Kriterien, optional Mentoring für Argumentation, KI-Impuls zu Kohärenz, Lehrkraft-Meta-Feedback; '''Szenario Mathematik''' – aiMOOC „Quadratische Funktionen“ (Fehlermusterdiagnose), Mentoring zu Umformungstechnik, KI-Beispielfamilien, Lehrkraft priorisiert Übungsset; '''Szenario NaWi''' – Projektaufgabe mit Kriterienraster, Peer-Poster-Reviews, KI-Check zu Datenangaben, Lehrkraft-Transferauftrag. Zeitbudgets werden pro Stufe geplant; Risiken (Überfrachtung, unklare Kriterien) durch Checklisten minimiert.


== Dokumentation, Kommunikation und Gerechtigkeit ==
= Teil III: Umsetzung in der Schule =


'''Lernjournal''' – Ziel, Hinweis, Aktion, Evidenz; '''Feedback-Log''' – Quelle, Kriterium, Beleg, Frist; '''Kompetenzfortschritt''' – Meilensteine/Ampel. Kommunikation nach außen fokussiert Prinzipien statt Tools. '''Equity''' – Barrierearme Formate, Mehrsprachigkeit, Alternativen zu reinen Textformaten, Offline-Optionen für begrenzte Infrastruktur. '''Datenschutz''' – Datensparsamkeit, klare Speicherfristen, Rollenrechte.
== Leitbild und Zielbild ==
Eine wirksame Feedbackkultur entsteht nicht durch Einzelmaßnahmen, sondern durch ein konsistentes Zusammenspiel von Aufgabenqualität, klaren Rollen, kurzen Rückmeldeschleifen, dokumentierter Revision und verlässlicher Schulorganisation. FELIX liefert dafür die Architektur; FIX ist die pragmatische Kurzform, wenn Peer- und Mentorenstrukturen (noch) fehlen. Das schulische Zielbild lautet: Unterricht, in dem Lernziele und Kriterien sichtbar sind, Feedback früh und häufig ansetzt, auf beobachtbaren Belegen beruht, einen priorisierten nächsten Schritt ausweist und in zeitnahe Überarbeitung mündet. Die KI wird als Verstärker in diese Routinen eingebettet, abgesichert durch Transparenz, Datensparsamkeit, Barrierefreiheit und kompetenzbasierte Zugänge (Vertrauensstufen).<ref>Hattie, J.; Timperley, H. (2007)</ref><ref>Shute, V. J. (2008)</ref><ref>Glanz, U. (2024): ''[[Vertrauensstufen|Vertrauensstufen mit KI-Einsatz in der Bildung]]''</ref>


----
== Governance und Rollen ==
Schulen benötigen eine leichtgewichtige, aber klare Governance:
; Steuergruppe
: Schulleitung, eine Lehrkraft je Fachbereich, IT/Datenschutz, eine Schüler- und eine Elternvertretung. Auftrag: Ziele priorisieren, Meilensteine setzen, Leitplanken beschließen, Evaluation sichern.
; Fachgruppen
: Aufgabenqualität, Kriterienraster, Beispiel-/Gegenbeispielsammlungen, aiMOOC-Kurationslisten, fachspezifische Prompt-Bausteine.
; IT & Datenschutz
: Infrastruktur (lokal/online), Rechte- und Rollensystem, Datensparsamkeit, Speicherfristen, Notfall- und Supportprozesse.
; Fortbildung
: Micro-Module für Feedback-Literacy, KI-Leitplanken, Unterrichtsdesign und Hospitationskultur; Peer-Coaching.
; Lernende
: Lernjournal führen, Rückmeldungen umsetzen, Belege sichern, Vertrauensstufen erwerben (Tablet-/KI-Führerschein).


= Teil IV: Varianten, Risiken, Qualitätssicherung =
== 90-Tage-Roadmap (Pilot bis Verankerung) ==
{| class="wikitable"
! Phase !! Zeitraum !! Fokus !! Ergebnisse
|-
| 0. Vorbereitung || Woche −2 bis 0 || Leitbild schärfen, Steuergruppe einsetzen, Datenschutz klären, zwei Fächer wählen || Beschlusspapier, DPIA-Check, Auswahl Pilotklassen
|-
| 1. Pilot || Wochen 1–4 || Zwei Sequenzen à 2–3 Unterrichtsstunden pro Fach mit FELIX/FIX (aiMOOC, Peer-Karte, KI-Impuls, Xpert-Konferenz) || Erste Artefakte, funktionierende Lernjournale, Kurzfeedback der Beteiligten
|-
| 2. Ausweitung || Wochen 5–8 || Drittes Fach; Mentorenprogramm minimal starten; Vorlagen konsolidieren || Mentorenslots (10–15 Min), Vorlagenpaket v1
|-
| 3. Verankerung || Wochen 9–12 || Curriculare Verortung, Hospitationszirkel, Elternkommunikation, Fortbildungsmodul „Feedback-Literacy“ || Schulweite Mindeststandards, Terminplan Hospitation, Info-Kit für Eltern
|}


== Varianten ==
== Unterrichtsdesign-Blueprints (45/90 Minuten) ==
; 45-Minuten-Takt (z. B. Deutsch)
: Einstieg 5′ Ziel/Kriterium mit Beispiel; aiMOOC-Aufgabe 15′ mit Mikrohints und Mini-Revision; Peer-Feedback 10′ (1 Kriterium, 1 Beleg, 1 Schritt); KI-Impuls 8′ (zwei Stärken, ein Schritt, Leitfrage); Xpert-Hinweis 5′; Journal-Eintrag 2′.
; 90-Minuten-Takt (z. B. Mathematik/NaWi)
: Diagnose 10′; aiMOOC-Pfad 20′; Peer-Runde 15′; Mentoring-Slots 2×12′ parallel; KI-Impuls 10′; Xpert-Konferenz 10′; Transferaufgabe 10′; Journal 3′.


Fachspezifische Anpassungen (z. B. stärker produktorientiert in Sprachen, prozessdiagnostisch in MINT), Altersstufen (primar: stärker geleitete Peer-Formate; sekundar: mehr Autonomie), Infrastruktur (Offline-KI mit reduzierter Leistungsfähigkeit vs. Online-KI mit strengeren Leitplanken).  
== aiMOOC-Produktion und Kuration ==
Ein aiMOOC bündelt Ziel, Kriterien, Aufgabenprogression, Beispiele und Mikrohints.
; Produktions-Workflow
: Lernziel/Kriterium formulieren → Beispiel/Gegenbeispiel erstellen → Aufgaben in 3 Niveaustufen mit eingebetteten Checks → Mikrohints definieren (max. 2 je Aufgabe) → Journal-Prompts einbauen → Veröffentlichung auf [[MOOCit.de]]/[[aiMOOC.org]].
; Qualitätscheck (Kompaktheuristik)
: {{o}} Kriterium zuerst {{o}} ein Beleg pro Beispiel {{o}} zwei Mikrohints maximal {{o}} ein nächster Schritt {{o}} Journal-Slot vorhanden.
; Kuration
: Fachgruppe pflegt eine Liste geprüfter aiMOOCs (Thema, Stufe, Kriterienbezug, Dauer, Barrierefreiheitsstatus).


== Risiken und Gegenmaßnahmen ==
== Vertrauensstufen und Führerscheine ==
Die Nutzung leistungsfähiger KI-Funktionen erfolgt stufenweise. Nachweis erfolgt über kurze, praktische Prüfungen.
{| class="wikitable"
! Stufe !! Freigaben (Beispiele) !! Nachweis
|-
| 0 Basis || Lesen/Nutzen von aiMOOCs, Mikrohints, Journalführung || Tablet-Führerschein: sichere Bedienung, Urheberrecht, Datenminimierung
|-
| 1 KI-Light || Formale Checks (Gliederung, Quellenformate), neutrale Hinweise ohne Lösungen || KI-Führerschein Teil A: „Kennzeichne KI-Hinweise, belege Umsetzungen“
|-
| 2 KI-Fokus || Kriteriennahe Impulse (2 Stärken, 1 Schritt, 1 Leitfrage), Minimal-/Gegenbeispiele || KI-Führerschein Teil B: „Arbeite 3 Hinweise in Revisionen ein“
|-
| 3 KI-Plus || Vergleichsaufgaben, Transfervorschläge, Selbstcheck-Generator || Portfolio-Nachweis: drei vollständige Zyklen inkl. Transfer
|}


'''Überabhängigkeit von KI''' – Mensch-im-Loop, Stichprobenprüfungen, KI-Hinweise als Vorschläge kennzeichnen. '''Datenrisiken''' – Minimierung personenbezogener Daten, lokale Speicherung, begrenzte Retention. '''Bias''' – Kuratierte Beispiele, Diversitäts-Checks, Reflexionsfragen. '''Cognitive Overload''' – Priorisierung, Maximalzahl an Hinweisen, klare Reihenfolge. '''Ungleichheit''' – Differenzierte Zugänge, Zusatzzeitfenster, analog-digitale Doppelstrukturen. Diese Gegenmaßnahmen entsprechen Kernbefunden der Feedback-, Motivations- und Cognitive-Load-Forschung.<ref>Shute, V. J. (2008): Focus on Formative Feedback. ''Review of Educational Research'', 78(1), 153–189.</ref><ref>Deci, E. L.; Ryan, R. M. (2000): The “What” and “Why” of Goal Pursuits. ''Psychological Inquiry'', 11(4), 227–268.</ref><ref>Sweller, J. (1988): Cognitive load during problem solving. ''Cognitive Science'', 12(2), 257–285.</ref>
== Datenschutz, Sicherheit, Barrierefreiheit ==
; Datenschutz & DPIA
: Datenminimierung (Textauszüge statt Volltexte), Pseudonymisierung, klare Speicherfristen, Protokolltransparenz, lokale Alternativen bei sensiblen Inhalten.
; Sicherheit
: Rollenrechte, Logging, Notfallabläufe (Abschalten einzelner Funktionen), jährlicher Technik-Check.
; Barrierefreiheit
: Alternativformate (Audio, große Schrift), einfache Sprache, Tastaturbedienbarkeit, Farbkodierungen mit ausreichendem Kontrast, Medienarme Alternativen für leistungsschwache Netze.


== Qualitätssicherung als Routine ==
== Fortbildungscurriculum für Kollegium ==
; Modul A Feedback-Grundlagen
: Ziel/Kriterium, Feed Up/Back/Forward, Kurzrubriken; Mikro-Design-Sprints.
; Modul B Aufgabenqualität
: Beispiel-Gegenbeispiel, Progression, kognitive Last steuern.
; Modul C Peer & Mentoring
: Satzstarter, Belegpflicht, 10–15-Min-Mentorings, Protokolle.
; Modul D KI in FELIX
: Prompt-Bausteine, Kennzeichnung, Mensch-im-Loop, Vertrauensstufen.
; Modul E Hospitationskultur
: Beobachtungskarten, kollegiale Kurzfeedbacks, Follow-up.


Kollegiale Hospitationen mit Fokus auf Sichtbarkeit von Zielen/Kriterien, Taktung der Schleifen, Dokumentation von Revisionen; kurze Auswertungsrunden; Portfolio-Sichtungen; Schulinterne Fortbildungen mit Mikro-Design-Sprints (Aufgabe – Kriterium – Hinweis – nächster Schritt). Qualität ist kein Ereignis, sondern eine wiederkehrende Mini-Praxis.
== Micro-Curriculum für Lernende: Feedback-Literacy ==
Vier Kurzlektionen à 20–30 Minuten, fächerübergreifend:
; L1 Kriterien sehen lernen
: Beispiel/Gegenbeispiel markieren; „Woran erkennt man Qualität?“
; L2 Ein Beleg – ein Schritt
: Evidenzformeln („Ich sehe Kriterium X belegt in …“), Priorisierung.
; L3 Journal-Routine
: Ziel – Hinweis – Aktion – Evidenz – Reflexion; zwei Stärken, ein Schritt.
; L4 KI kompetent nutzen
: Kennzeichnung, Datensparsamkeit, strukturiertes Prompten, Revision belegen.


----
== Kommunikationsplan (Innen/Außen) ==
; Kollegium
: Monatsbrief „FELIX-Praxis“ mit Beispielen; Hospitationskalender; FAQ.
; Lernende
: Startbrief „So funktioniert Feedback hier“; Vertragsfolie: „Wir geben wenige, aber präzise Hinweise – du änderst sichtbar und belegst.“
; Eltern/Öffentlichkeit
: Informationsabend; Einseiter mit Leitprinzipien; Beispielseite aus dem Lernjournal; Datenschutz-Hinweise; Nutzenargumente (Transparenz, Nachvollziehbarkeit, Teilhabe).


= Teil V: Vorlagen, Glossar, Literatur =
== Qualitätsindikatoren und Monitoring ==
Qualität wird über Spuren, nicht über zusätzliche Tests sichtbar. Minimal-Dashboard pro Klasse:
; Indikatoren
: Anteil Stunden mit transparenter Kriteriennennung; Anteil Produkte mit Journal-Eintrag; mittlere Zeit bis zur Umsetzung eines nächsten Schritts; Verteilung der Feedback-Quellen (F/E/L/I/X); Anzahl dokumentierter Transfers pro Einheit.
; Erhebung
: Stichproben aus Journals (5–8 pro Klasse/Monat), Kurzbefragung 3 Fragen („Wusste ich das Ziel? Was habe ich geändert? Woran sehe ich Fortschritt?“), Hospitationen mit Kurzcheck.
; Auswertung
: Monatliche 30-Min-Runde je Fachgruppe; ein Beschluss – eine Änderung für den kommenden Monat.


== Vorlagen (erweiterte Auswahl) ==
== Beispiel-Blueprints je Fach ==


'''Kriterienraster „Gute Rückmeldung“''' – Dimensionen: Bezug zum Ziel, Beleg, nächster Schritt, Tonalität, Aktivierung; Skala 0–3; Anwendung: zwei Dimensionen gezielt stärken. '''Peer-Feedback-Karte''' Feld „Kriterium“, Feld „Evidenz“, Feld „Ein priorisierter nächster Schritt“; Satzstarter. '''Mentoring-Protokoll''' – Problem – Intervention – Wirkung – Follow-up (max. 2 Interventionen). '''Lernjournal-Seite''' – Ziel – Hinweis – Aktion – Evidenz – Reflexion. '''Prompt-Bausteine für I''' – ohne Zeilenumbrüche: {{o}} „Prüfe Zielkriterien X/Y, nenne 2 Stärken und 1 nächsten Schritt – ohne Lösung zu verraten“ {{o}} „Formuliere 3 Leitfragen zur Verbesserung von Abschnitt Z“ {{o}} „Gib ein Minimal- und ein Gegenbeispiel für Konzept Q“ {{o}} „Schlage eine Transferaufgabe vor, die dasselbe Kriterium in neuem Kontext prüft“.
=== Deutsch (Argumentierendes Schreiben, 2×45 Min) ===
Tag 1: Ziel/Kriterium „Behauptung – Begründung – Beleg – Bezug“; aiMOOC-Aufgabenfolge mit Mikrohints; Mini-Revision; Peer-Feedback „1 Kriterium – 1 Beleg 1 Schritt“; Journal.
Tag 2: Mentoring-Slots zu Kohärenz; KI-Impuls mit Gegenbeispiel; Xpert-Konferenz (5′/Team) mit Transferauftrag „Gleiches Kriterium, neuer Textausschnitt“; Journal-Reflexion.


== Glossar (ausgewählt) ==
=== Mathematik (Quadratische Funktionen, 90 Min) ===
Diagnose-Item; aiMOOC-Fehlermuster (Scheitel/Normalform); Peer-Check „Rechenweg belegen“; Mentoring zu Umformungen; KI-Impuls „Vergleich zweier Lösungswege“; Xpert-Fokus auf Strategie; Transfer „Parameter-Variation“.


'''Formative Rückmeldung''' – prozessbegleitende, handlungsleitende Rückmeldung; '''Feedback-Literacy''' – Kompetenz, Rückmeldungen zu verstehen, zu bewerten und umzusetzen; '''Scaffolding''' – zeitweilige, strukturierende Unterstützung in der ZPD; '''aiMOOC''' – offener, KI-gestützter Lernkurs mit Interaktionen und Sofort-Feedback; '''Vertrauensstufen''' – kompetenzbasierte Zugänge zu KI-Funktionen; '''Lernjournal''' – verdichtete Dokumentation von Ziel – Hinweis – Aktion – Evidenz; '''Feed Up / Back / Forward''' Zielklärung, Standortbestimmung, nächster Schritt.
=== NaWi (Daten und Messfehler, 45 Min) ===
Ziel/Kriterium „Plausible Messreihe, Fehlerquellen, Visualisierung“; aiMOOC-Checkliste; Peer-Poster-Review mit Belegpflicht; KI-Hinweis zu Achsen/Skala; Xpert-Auftrag „Gleiche Daten, andere Visualisierung begründe Wahl“.


== '''FELIX als Wegweiser für zukunftsfähige Feedbackkultur''' ==
== Vorlagenpaket (Kernauszüge) ==
; Peer-Karte
: Kriterium: ____ | Evidenzstelle: ____ | Ein nächster Schritt: ____ | Umsetzung bis: ____ | umgesetzt? ja/nein
; Mentoring-Protokoll
: Problem: ____ | Intervention 1 (Struktur): ____ | Intervention 2 (Leitfrage): ____ | Vereinbarte Änderung: ____ | Follow-up: ____
; Xpert-Kurzrubrik (0–3)
: Ziel/Kriterium benannt? 0–3 | Evidenz vorhanden? 0–3 | Nächster Schritt präzise? 0–3 | Revision sichtbar? 0–3 | Transfer geplant? 0–3
; Prompt-Bausteine I (ohne Zeilenumbruch)
: {{o}} Prüfe Kriterium X an Abschnitt Y; nenne 2 Stärken und 1 nächsten Schritt; stelle 1 Leitfrage – ohne Lösung vorwegzunehmen


'''FELIX''' ist mehr als eine Methode; es ist eine robuste Architektur, die wissenschaftliche Evidenz mit schulpraktischer Umsetzbarkeit verbindet. Die Kombination aus freiem Lernen (F), sozialer Evaluation (E), Lernmentorenschaft (L), intelligenter, individueller, interaktiver Rückmeldung (I) und reflektierter Expertise (X) erzeugt verlässliche Lerngewinne, stärkt Beziehungen und fördert Lernfreude. '''FIX''' sichert dieselben Wirkprinzipien unter engen Ressourcen. Entscheidend sind transparente Kriterien, kurze Schleifen und dokumentierte Revisionen – damit Lernen sichtbar wird und Fortschritt verlässlich gelingt. Die Grundhaltung entspricht dem Forschungsstand: Feedback wirkt, wenn es zielklar, spezifisch, zeitnah und handlungsleitend ist und von Lernenden aktiv aufgenommen und in Revision überführt wird.<ref>Hattie, J.; Timperley, H. (2007): The Power of Feedback. ''Review of Educational Research'', 77(1), 81–112.</ref><ref>Shute, V. J. (2008): Focus on Formative Feedback. ''Review of Educational Research'', 78(1), 153–189.</ref>
== Risiko-Register und Gegenmaßnahmen ==
; Überfülle
: Gegenmittel: Max. 1 Schritt; harte Längenbegrenzung; Priorisierungsmatrix.
; Rollenunschärfe
: Gegenmittel: Rollenkarten; Protokollpflicht bei L; Kennzeichnung von I.
; Datenrisiko
: Gegenmittel: Pseudonyme, Offlinemodus, kurze Retention, Opt-out-Pfad.
; Ungleichheit
: Gegenmittel: Differenzierte Zugänge, zusätzliche Zeitfenster, analoge Alternativen.


<br>
== Ressourcen und Aufwand ==
Startaufwand konzentriert sich auf drei Bereiche: Aufgabenqualität (einmalig je Fach zwei Beispiel-Sequenzen mit Kriterienraster), Vorlagen (Peer-Karte, Journal, Mentoring-Protokoll, Xpert-Rubrik) und Fortbildung (4×45-Min-Micro-Module). Laufend sinkt der Korrekturaufwand durch Verlagerung auf Mikrohints, fokussierte Peer-Beiträge und 5-Min-Xpert-Konferenzen; die Lehrkraft investiert stärker in Aufgabendesign und Priorisierung, gewinnt jedoch Zeit durch weniger „Vollkorrekturen“ bei höherer Lernwirksamkeit.<ref>Black, P.; Wiliam, D. (1998)</ref><ref>Hattie, J.; Timperley, H. (2007)</ref>


== Abbildungen ==
== Gerechtigkeit und Teilhabe ==
[[Datei:FELIX - Feedback mit KI.png|800px|rahmenlos|zentriert|link=FELIX]]
FELIX/FIX stärkt Teilhabe, wenn drei Bedingungen aktiv verfolgt werden: Barrierearme Aufgabenformate und Alternativen; transparente Kriterien in einfacher Sprache mit Beispielen; dokumentierte Revisionen als sichtbare Fortschrittsspur statt alleiniger Produktbewertung. Diese Bedingungen unterstützen insbesondere Lernende mit Sprachbedarfen, mit geringem Vorwissen oder mit wenig häuslicher Unterstützung – denn sie machen Anforderungen sichtbar und Wege dorthin machbar.
''Abbildung: FELIX kann FIX werden.''


<br>
== Abschließender Korridor für die Schulentwicklung ==
 
Nach 90 Tagen Pilotierung ist das Ziel eine schulweite Minimalpraxis: Jede Lernsequenz beginnt mit Ziel/Kriterium und endet mit dokumentierter Revision; jede Klasse nutzt zumindest FIX in eng getakteten Schleifen; Peer- und Mentorenformate wachsen stufenweise; KI-Impulse sind gekennzeichnet, kriteriennah und in Mensch-im-Loop-Routinen eingebettet. Von hier aus skaliert die Schule über Curriculumanpassung, Hospitation und Vorlagenpflege. Damit wird Feedback vom sporadischen Ereignis zur verlässlichen Kultur – transparent, gerecht und lernwirksam.
== Quellen und weiterführende Literatur ==
Die folgenden Werke bilden die theoretische Grundlage des Modells und seiner Umsetzung.
<references/>




Zeile 154: Zeile 318:
<br>
<br>
<br>
<br>
----
<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
<br>
= ZWEITER VERSUCH =


<br>
<br>
<br>
<br>
<br>
<br>


= Teil IV: Varianten, Risiken, Qualitätssicherung =
== Varianten und Anpassungen ==
FELIX ist ein architektonisches Modell und daher in unterschiedlichen Kontexten adaptierbar, ohne seine Logik zu verlieren. Fachliche Varianten betreffen vor allem die Art der Kriterien und der natürlichen Rückmeldepunkte. In sprachlichen Fächern rücken Textqualität, Argumentationslogik, Kohärenz und Stil in den Mittelpunkt; Rückmeldungen arbeiten mit markierten Beispiel- und Gegenbeispielpassagen, mit Fokus auf Belegführung und Überarbeitungsschritten im Lauftext. In MINT-Fächern sind Fehlerkategorien, Rechenwege, Modellannahmen, Messprotokolle und Visualisierungen leitend; hier bieten sich strukturierte Fehleranalysen, Minimal- und Gegenbeispiele, sowie kurze Format-Checks (Einheiten, Achsenskalierung) an. In den Künsten und in Projektfächern dominieren Prozessfeedback, Kriterien zu Komposition bzw. Gestaltung, iteratives Prototyping und Transferaufträge, die das Kriterium in einen neuen Ausdruckskontext setzen. Altersvarianten betreffen den Grad der Anleitung: In der Primarstufe sichern Satzstarter, enge Zeitfenster und sichtbare Belegkarten die Dialogqualität; in der Sekundarstufe wachsen Autonomie und fachliche Tiefe, Peer-Dialoge werden stärker kriteriengeleitet, Mentoring kann als Schüler-Expert:innen-Programm institutionalisiert werden.<ref>Black, P.; Wiliam, D. (1998): Assessment and Classroom Learning. ''Assessment in Education'', 5(1), 7–74.</ref><ref>Topping, K. J. (1998): Peer assessment between students in colleges and universities. ''Review of Educational Research'', 68(3), 249–276.</ref>
Organisationsvarianten ergeben sich aus Infrastruktur und Datenschutz. Wo stabile Online-Verbindungen, Single-Sign-on und schulische Cloud-Dienste verfügbar sind, können aiMOOCs, kollaborative Dokumente und KI-Begleiter nahtlos eingebunden werden. Wo dies nicht gegeben ist, bleibt die Logik identisch, die Umsetzung aber medienärmer: aiMOOCs werden als lokales Paket bereitgestellt, Mikrohints erscheinen in gedruckten Checkkarten, Peer- und Mentorenarbeit wird analog protokolliert, KI-Impulse werden in Offlinelösungen oder mit starker Datensparsamkeit genutzt. Entscheidender als das Tool ist die Routine: Ziel/Kriterium sichtbar, kurzer Rückmeldepunkt, ein priorisierter nächster Schritt, dokumentierte Mini-Revision. Diese Sequenz bleibt unabhängig von Fach, Jahrgang und Medienausstattung gültig.<ref>Shute, V. J. (2008): Focus on Formative Feedback. ''Review of Educational Research'', 78(1), 153–189.</ref><ref>Sweller, J. (1988): Cognitive load during problem solving. ''Cognitive Science'', 12(2), 257–285.</ref>


[[Datei:KI in der Schulkommunikation.png|500px|rahmenlos|zentriert|link=KI in der Schulkommunikation]]
== Risiken und Gegenmaßnahmen ==
Mehrere wiederkehrende Risiken lassen sich in Routinen übersetzen. Überabhängigkeit von KI führt zu passiven Lernhaltungen; Gegenmaßnahme ist das Mensch-im-Loop-Prinzip (Lehrkraft priorisiert, validiert und rahmt kritische Punkte) sowie die Verpflichtung zur sichtbaren Revision mit Beleg im Lernjournal. Kognitive Überlastung entsteht durch überlange, unpriorisierte Hinweise; Gegenmaßnahme sind knappe, kriterienfokussierte Impulse und die Heuristik „ein nächster Schritt“ pro Zyklus.<ref>Sweller, J. (1988)</ref> Motivationale Kosten entstehen, wenn Feedback als Kontrolle erlebt wird; die Gegenstrategie ist eine Tonalität, die Autonomie stützt, Kompetenz sichtbar macht und Zugehörigkeit respektiert, sowie Wahlräume bei der Reihenfolge von Schritten.<ref>Deci, E. L.; Ryan, R. M. (2000): The “What” and “Why” of Goal Pursuits. ''Psychological Inquiry'', 11(4), 227–268.</ref> Ungleichheit verstärkt sich, wenn Vorerfahrungen, Sprachkenntnisse oder häusliche Unterstützung stark variieren; Gegenmaßnahmen sind barrierearme Formate, klare Sprache, Alternativwege (Audio, große Schrift, medienarme Varianten), Zusatzzeitfenster und die bewusste Trennung von Würdigung und Diagnose. Datenschutz- und Fairnessrisiken adressiert die Schule über Datensparsamkeit, Pseudonymisierung, klare Speicherfristen, Rollenrechte und ein gestuftes Freigabesystem (Vertrauensstufen) für sensible KI-Funktionen.<ref>Glanz, Udo (2024): ''[[Vertrauensstufen|Vertrauensstufen mit KI-Einsatz in der Bildung]]''. Glanz-Verlag.</ref>


{{:MOOCit - Titel}}
Ein häufiges Missverständnis ist der Glaube, mehr Feedback sei automatisch besser. Die Forschung zeigt, dass Qualität, Zeitpunkt und Einbettung entscheidend sind: Zielklarheit, Bezug zu beobachtbaren Merkmalen, Spezifität, Zeitnähe und Handlungsleitung – und vor allem die anschließende Überarbeitung – bestimmen die Wirkung.<ref>Hattie, J.; Timperley, H. (2007): The Power of Feedback. ''Review of Educational Research'', 77(1), 81–112.</ref><ref>Shute, V. J. (2008)</ref> FELIX operationalisiert genau diese fünf Merkmale in einem wiederkehrenden Rhythmus.


= '''FELIX – Feedbackkultur mit KI''' =
== Qualitätssicherung als Routine ==
[[Datei:FELIX - Feedback mit KI.png|800px|rahmenlos|zentriert|link=FELIX]]
Qualitätssicherung ist bei FELIX kein Sonderprogramm, sondern Teil der Alltagsarchitektur. Drei Bausteine tragen: Hospitationen im Kurzformat, Dokumentationsspuren und kollegiale Auswertungsschleifen. Kurz-Hospitationen mit Beobachtungskarten fokussieren auf sichtbare Ziele/Kriterien, auf den Takt der Rückmeldeschleifen und auf die Evidenz dokumentierter Revisionen. Dokumentationsspuren im Lernjournal – Ziel, Hinweis, Aktion, Evidenz, Reflexion – dienen als minimalinvasive Nachweise, die ohne Zusatzbelastung für Lernende entstehen und für Lehrkräfte, Mentor:innen und Peers anschlussfähig sind. Monatliche Fachgruppenrunden nutzen kleine Stichproben aus Journals und zwei bis drei Artefakte pro Klasse, um einen einzigen Verbesserungsbeschluss zu fassen. Diese Form des Micro-Monitorings macht Fortschritt sichtbar, ohne Unterricht zu überfrachten, und fördert zugleich Feedback-Literacy im Kollegium.<ref>Black, P.; Wiliam, D. (1998)</ref><ref>Carless, D.; Boud, D. (2018): The development of student feedback literacy. ''Assessment & Evaluation in Higher Education'', 43(8), 1315–1325.</ref>
''Abbildung: FELIX kann zur Kurzform FIX werden (ohne E und L).''


== Vorwort ==
Ein zusätzlicher Baustein ist die Rubrik-Kalibrierung: In kurzen Design-Sprints gleichen Fachgruppen Beispiel- und Gegenbeispielartefakte mit einer Kurzrubrik ab, um die Sprache der Kriterien zu schärfen und Urteilsdrift zu reduzieren. Diese Kalibrierung senkt den späteren Kommentieraufwand, weil die gemeinsame Bezugsbasis robust ist und Rückmeldungen sich an explizit geteilten Qualitätsmerkmalen orientieren.<ref>Hattie, J.; Timperley, H. (2007)</ref>
Dieses Buch entfaltet mit '''FELIX''' und der Kurzform '''FIX''' eine wissenschaftlich begründete und praxistaugliche Architektur für Feedbackkultur im Zeitalter der Künstlichen Intelligenz (KI). Im Zentrum steht Lernen als sozial eingebetteter, kognitiv anspruchsvoller und zielgerichteter Prozess, der durch geeignete Rückmeldungen sichtbar, steuerbar und nachhaltig wird. Forschung zu formativer Beurteilung und Feedback zeigt konsistent: Rückmeldungen sind dann wirksam, wenn sie früh ansetzen, an expliziten Zielen ausgerichtet sind, sich auf beobachtbare Merkmale beziehen, handlungsleitend formuliert sind und zeitnah in Überarbeitung münden.<ref>Black, P.; Wiliam, D. (1998): Assessment and Classroom Learning. ''Assessment in Education'', 5(1), 7–74.</ref><ref>Hattie, J.; Timperley, H. (2007): The Power of Feedback. ''Review of Educational Research'', 77(1), 81–112.</ref><ref>Shute, V. J. (2008): Focus on Formative Feedback. ''Review of Educational Research'', 78(1), 153–189.</ref>
'''FELIX''' beschreibt fünf miteinander verzahnte Stufen: '''Free Learning''' (strukturierte Lernumgebungen mit Sofort-Rückmeldung), '''Evaluation''' (Peer-Feedback), '''Learning Mentor''' (gezielte Expertenstütze), '''Interactive Feedback''' (KI-gestützte Impulse), '''Xpert''' (reflektierende Lehrkraft). '''FIX''' ist die pragmatische Kurzform ohne E und L, wenn Peer- oder Mentorenstrukturen situativ fehlen. Der Name '''FELIX''' verweist etymologisch auf ''felix'' = der Glückliche/Erfolgreiche/Fruchtbare und steht sinnbildlich für eine Lernkultur, die Freude, Wirksamkeit und Wachstum ermöglicht.
KI wird in diesem Rahmen als Verstärker genutzt, nicht als Ersatz pädagogischer Professionalität. Sie kann Fehlermuster identifizieren, Beispiele variieren, Kriterien operationalisieren und adaptive Aufgaben vorschlagen; dafür braucht es Leitplanken zu Transparenz, Korrektheit, Fairness, Datenschutz und Barrierefreiheit sowie ein kompetenzbasiertes Zugangsmodell (Vertrauensstufen).<ref>Carless, D.; Boud, D. (2018): The development of student feedback literacy. ''Assessment & Evaluation in Higher Education'', 43(8), 1315–1325.</ref><ref>Deci, E. L.; Ryan, R. M. (2000): The “What” and “Why” of Goal Pursuits. ''Psychological Inquiry'', 11(4), 227–268.</ref><ref>Sweller, J. (1988): Cognitive load during problem solving. ''Cognitive Science'', 12(2), 257–285.</ref>
Als strukturgebende Lernumgebung dienen '''aiMOOCs''' mit integrierten Interaktionen und Sofort-Rückmeldungen; sie werden über spezialisierte Prompts/GPTs erzeugt, fachlich gerahmt und offen publiziert und unterstützen adaptives Lernen, Mehrfachdifferenzierung und ressourcenschonende Unterrichtsvorbereitung.<ref>Glanz, Udo (2019): [[MOOCs selbst erstellen|MOOCs selbst erstellen – P4P MOOCs in Schule, Ausbildung, Studium]]. Glanz-Verlag.</ref><ref>Glanz, Udo (2025): ''[[KI-Bildungsbuffet]] – aiMOOCs in der Praxis''. Glanz-Verlag.</ref>


== Teil I: Grundlagen der Feedbackkultur ==
== FIX als Übergangs- und Notfallmodus ==
=== 1. Warum Feedback der Motor von Lernen ist ===
FIX – die Kurzform ohne E und L – ist nicht nur ein „Sparprogramm“, sondern ein geordneter Übergangsmodus, wenn Zeit, Personal oder Strukturen fehlen. In FIX bleiben die Wirkprinzipien erhalten: Basisklärung und Sofort-Rückmeldung (F), ein fokussierter KI-Impuls (I) und die gewichtende, beratungsoffene Lehrkraft (X). Schulen nutzen FIX, um die Logik zu etablieren und Peer- sowie Mentorenformate schrittweise aufzubauen. Wichtig ist die konsequente Journalführung, damit auch im Kurzmodus jede Rückmeldung in eine beobachtbare Veränderung überführt wird.
Rückmeldungen sind allgegenwärtig, doch ihre Wirkung ist nicht selbstverständlich. Unpräzise, verspätete oder überladene Hinweise erzeugen kognitives Rauschen und bleiben folgenlos. Wirksam wird Feedback, wenn es an expliziten Zielen ansetzt, sich auf überprüfbare Merkmale von Produkten oder Prozessen bezieht, priorisiert ist und in konkrete Revisionen führt. Dieses Dreischritt-Muster wird als Verbindung von Zielklärung, Standortbestimmung und Handlungsplanung beschrieben (Feed Up – Feed Back – Feed Forward).<ref>Hattie, J.; Timperley, H. (2007): The Power of Feedback. ''Review of Educational Research'', 77(1), 81–112.</ref> Unterrichtliche Realität ist geprägt von Heterogenität und Zeitknappheit; eine belastbare Feedbackkultur reagiert darauf mit klaren Rollen, transparenten Kriterien und kurzen, planbaren Schleifen.


=== 2. Begriffsklärungen: Feedback, Evaluation, Überarbeitung ===
Formative Rückmeldung begleitet Lernprozesse; summative Rückmeldung bilanziert Leistung. Beide können koexistieren, erfüllen aber unterschiedliche Zwecke. Formatives Feedback ist zielbezogen, evidenzbasiert, knapp und handlungsleitend und wird zeitnah gegeben, um die Lücke zwischen Handlung und Korrektur zu schließen.<ref>Shute, V. J. (2008): Focus on Formative Feedback. ''Review of Educational Research'', 78(1), 153–189.</ref> Evaluation bezeichnet hier die kriteriengeleitete Beurteilung durch Lernpartner:innen oder Mentor:innen zur Qualitätssteigerung eines Lernprodukts; sie ersetzt nicht die Note, sondern ist Teil eines Entwicklungszyklus. Überarbeitung ist konstitutiv: Rückmeldung ohne anschließende Revision bleibt pädagogisch folgenlos.


=== 3. Theoretische Fundamente und Implikationen ===
= Teil V: Vorlagen, Glossar, Literatur =
Sozial-konstruktivistische Ansätze verstehen Lernen als ko-konstruierten Prozess; Rückmeldungen sind dialogisch zu gestalten und an gemeinsam verstandene Kriterien zu binden.<ref>Black, P.; Wiliam, D. (1998): Assessment and Classroom Learning. ''Assessment in Education'', 5(1), 7–74.</ref> Die '''Zone der nächsten Entwicklung''' zeigt, dass Lernfortschritt unter stützender Begleitung gelingt; Scaffolding durch Peers, Mentor:innen und Lehrkraft reduziert Überforderung und beschleunigt Fortschritt.<ref>Vygotsky, L. S. (1978): ''Mind in Society''. Harvard University Press.</ref> Die '''Selbstbestimmungstheorie''' erklärt, warum Rückmeldungen dann motivierend wirken, wenn sie Autonomie unterstützen, Kompetenz sichtbar machen und soziale Eingebundenheit respektieren; Tonalität, Wahlräume und kompetenzorientierte Formulierungen sind zentral.<ref>Deci, E. L.; Ryan, R. M. (2000): The “What” and “Why” of Goal Pursuits. ''Psychological Inquiry'', 11(4), 227–268.</ref> Modelle selbstregulierten Lernens betonen Metakognition; Lernjournale, kurze Plan–Reflex–Schleifen und explizite Strategiewechsel erhöhen die Wirksamkeit von Feedback, weil Lernende Ziele setzen, überwachen und anpassen können.<ref>Zimmerman, B. J. (2002): Becoming a Self-Regulated Learner. ''Theory Into Practice'', 41(2), 64–70.</ref> Die Theorie '''kognitiver Belastung''' macht deutlich, dass Arbeitsgedächtnis knapp ist; wenige, priorisierte Hinweise mit klarer Reihenfolge sind lernwirksamer als umfangreiche, unsortierte Kataloge.<ref>Sweller, J. (1988): Cognitive load during problem solving. ''Cognitive Science'', 12(2), 257–285.</ref> Die '''Feedback-Interventionstheorie''' warnt vor personenbezogenen Rückmeldungen, die Aufmerksamkeit vom Lernziel weg lenken; kriterienfokussierte Hinweise sind überlegen.<ref>Kluger, A. N.; DeNisi, A. (1996): The effects of feedback interventions on performance. ''Psychological Bulletin'', 119(2), 254–284.</ref>


=== 4. Designprinzipien wirksamer Rückmeldung ===
== Vorlagen (ausformulierte Mustertexte) ==
Ziele und Kriterien werden vorab transparent gemacht und mit Beispielen veranschaulicht; Rückmeldungen docken an diese Kriterien an, verweisen auf beobachtbare Merkmale, bleiben präzise und priorisieren einen machbaren nächsten Schritt; kurze, verlässliche Schleifen ersetzen unregelmäßige Großereignisse; jede Rückmeldung endet in einer kleinen, zeitnahen Revision. Verdichtete Heuristik ohne Zeilenumbrüche: {{o}} Ziele/Kriterien klären {{o}} Hinweise an Kriterien binden {{o}} Belege nennen {{o}} einen nächsten Schritt priorisieren {{o}} Revision dokumentieren.
'''Peer-Feedback-Karte (ein Kriterium – ein Beleg – ein Schritt).''' 
Kriterium (Fokus): [z. B. „Begründung stützt die Behauptung mit überprüfbaren Belegen“]. Evidenz (wo genau im Produkt sehe ich das Kriterium erfüllt oder verfehlt?): [Zitat/Zeilenangabe/Abschnitt]. Ein priorisierter nächster Schritt (konkret, in 10–15 Minuten umsetzbar, ohne Lösung vorwegzunehmen): [z. B. „Ergänze nach Satz 3 einen Beleg aus Quelle A und erkläre in einem Satz den Zusammenhang zur Behauptung“]. Umsetzung bis: [Zeitpunkt]. Journalnotiz: [„Geändert: …; warum: …; Evidenz: …“]. Kompaktregel ohne Zeilenumbruch: {{o}} ein Kriterium {{o}} ein Beleg {{o}} ein Schritt {{o}} sofortige Umsetzung.


=== 5. Aufgabenqualität als Dreh- und Angelpunkt ===
'''Mentoring-Protokoll (Problem – Intervention – Wirkung – Follow-up).''' 
Ohne gute Aufgaben keine gute Rückmeldung. Aufgaben sollen Denken erzwingen, nicht nur Reproduktion, und natürliche Feedbackpunkte enthalten. Eine praktikable Progression lautet Verstehen – Anwenden – Transfer; jede Phase besitzt einen vorgesehenen Rückmeldeanlass und eine dokumentierte Anschlussaktion. In digitalen Kursen wie '''aiMOOCs''' lassen sich Sofort-Rückmeldungen zu Struktur oder Basisrichtigkeit einbetten; vertiefende Rückmeldungen erfolgen dialogisch durch Peers, Mentor:innen, KI und Lehrkraft.<ref>Glanz, Udo (2019): [[MOOCs selbst erstellen|MOOCs selbst erstellen – P4P MOOCs in Schule, Ausbildung, Studium]]. Glanz-Verlag.</ref><ref>Glanz, Udo (2025): ''[[KI-Bildungsbuffet]] – aiMOOCs in der Praxis''. Glanz-Verlag.</ref>
Problemfokus in der ZPD: [z. B. „Sprung zwischen Beleg und Schlussfolgerung“]. Intervention 1 (Struktur): [Template/Gliederung]. Intervention 2 (Leitfrage): [„Wie führt der Beleg genau zur Schlussfolgerung?“]. Vereinbarte Änderung (eine): [„Beleg-Satz ergänzen und verknüpfenden Satz formulieren“]. Follow-up (Zeitpunkt/Belegform): [„Journal-Eintrag und markierte Änderung“]. Rollenklarheit: Scaffolding statt Lösungsvorwegnahme.<ref>Vygotsky, L. S. (1978): ''Mind in Society''. Harvard University Press.</ref><ref>Glanz, Udo (2024): ''[[KI-Medienmentoren]] – Eine Einführung in Medienbildung mit KI''. Glanz-Verlag.</ref>


=== 6. Prozessarchitektur eines lernwirksamen Zyklus ===
'''Xpert-Kurzkonferenz (5 Minuten, meta-orientiert).''' 
Ein vollständiger Zyklus umfasst Ziel- und Kriterienklärung, Entwurf, mehrstufige Rückmeldungen und Revision. Eine praxistaugliche Abfolge ist: eingebettete Mikrohints im aiMOOC (formale/strukturbezogene Checks), kriteriengeleitete Peer-Hinweise, optional ein kurzes Mentoring-Fenster (Strukturhilfe), KI-Impulse zu genau einem priorisierten Aspekt, abschließende Fokushinweise der Lehrkraft. Wesentlich ist die Verbindlichkeit der Überarbeitung: Jede Rückmeldung führt zu einer kleinen, zeitnahen Revision, dokumentiert im Lernjournal (Sichtbarkeit und Selbstregulation).<ref>Zimmerman, B. J. (2002): Becoming a Self-Regulated Learner. ''Theory Into Practice'', 41(2), 64–70.</ref>
Diagnose aus Journalspuren: [kurze Zusammenfassung]. Strategischer Fokus: [eine Stärke, ein Entwicklungsfeld]. Empfehlung (ein Transferauftrag, der dasselbe Kriterium in neuem Kontext prüft): [z. B. „Formuliere die Begründung zu Abschnitt B nach demselben Muster“]. Frist und Evidenzform: [„bis …; markierte Änderung im Journal“]. Leitprinzip ohne Zeilenumbruch: {{o}} Diagnose aus Spuren {{o}} ein strategischer Fokus {{o}} ein Transferauftrag {{o}} klare Frist/Evidenz.<ref>Hattie, J.; Timperley, H. (2007)</ref>


=== 7. Rollen und geteilte Verantwortung in FELIX/FIX ===
'''Lernjournal-Seite (eine Zeile pro Zyklus).''' 
Rollen werden klar beschrieben und greifen ineinander: Lernende bringen Ziele und Entwürfe ein, reflektieren Rückmeldungen und dokumentieren Revisionen; Peers erhöhen die Dichte und Vielfalt kriterienorientierter Hinweise; Mentor:innen liefern kurzzeitige, fachlich fokussierte Strukturhilfe; KI-Assistenten erzeugen diagnostische Impulse, Beispiele und Vorschläge für nächste Schritte, die transparent gemacht und fachlich geprüft werden; die Lehrkraft (Xpert) priorisiert, validiert und reflektiert, sichert Anschluss an Standards, Passung, Fairness und Datenschutz.<ref>Carless, D.; Boud, D. (2018): The development of student feedback literacy. ''Assessment & Evaluation in Higher Education'', 43(8), 1315–1325.</ref><ref>Shute, V. J. (2008): Focus on Formative Feedback. ''Review of Educational Research'', 78(1), 153–189.</ref><ref>Hattie, J.; Timperley, H. (2007): The Power of Feedback. ''Review of Educational Research'', 77(1), 81–112.</ref>
Ziel/Kriterium: […]; Hinweis (Quelle F/E/L/I/X): […]; Aktion (konkrete Änderung): […]; Evidenz (wo ist die Änderung sichtbar?): […]; Reflexion (Was habe ich gelernt? Was mache ich als Nächstes?): […]<ref>Zimmerman, B. J. (2002): Becoming a Self-Regulated Learner. ''Theory Into Practice'', 41(2), 64–70.</ref>


=== 8. KI als Verstärker: Potenziale und Leitplanken ===
'''Prompt-Bausteine für I (KI-Impulse, ohne Lösungsvorwegnahme).''' 
KI kann typische Fehlermuster erkennen, Beispiele generieren, Kriterien operationalisieren und adaptive Lernpfade vorschlagen. Damit daraus Lerngewinn entsteht, braucht es Leitplanken: Transparenz über Einsatz und Grenzen (Kennzeichnung, Quellenlage), fachliche Prüfung kritischer Punkte durch die Lehrkraft, Schutz personenbezogener Daten und Datensparsamkeit, Bias-Achtsamkeit und barrierearme Formate, kompetenzbasierte Zugänge ('''Vertrauensstufen''', z. B. Tablet-/KI-Führerschein).<ref>Glanz, Udo (2024): ''[[Vertrauensstufen|Vertrauensstufen mit KI-Einsatz in der Bildung]]''. Glanz-Verlag.</ref>
Ohne Zeilenumbrüche: {{o}} Prüfe Kriterium X an Abschnitt Y; nenne 2 Stärken und 1 nächsten Schritt; stelle 1 Leitfrage – ohne die Lösung vorwegzunehmen {{o}} Liefere ein Minimal- und ein Gegenbeispiel für das Konzept Z; markiere, welche Eigenschaft das Kriterium erfüllt/verfehlt {{o}} Prüfe die Kohärenz zwischen Beleg A und Schlussfolgerung B; schlage genau 1 Formulierung vor, die die Brücke verstärkt – ohne inhaltlich neu zu argumentieren.<ref>Shute, V. J. (2008)</ref>


=== 9. Häufige Missverständnisse und Gegenstrategien ===
== Glossar (ausgewählte Kernbegriffe) ==
Häufige Irrtümer sind: „Mehr ist besser“ (tatsächlich wirken wenige priorisierte Hinweise stärker), „Lob genügt“ (Wertschätzung ersetzt keine Kriterienarbeit), „Die KI macht es schon“ (ohne didaktische Rahmung und Revision bleibt Feedback folgenlos). Gegenstrategien sind transparente Kriterien, kurze Schleifen, explizite Überarbeitungsaufträge, Lernjournale und systematische Schulung in Feedback-Kompetenz.<ref>Carless, D.; Boud, D. (2018): The development of student feedback literacy. ''Assessment & Evaluation in Higher Education'', 43(8), 1315–1325.</ref><ref>Shute, V. J. (2008): Focus on Formative Feedback. ''Review of Educational Research'', 78(1), 153–189.</ref>
'''Formative Rückmeldung.''' Prozessbegleitende, kriterienorientierte Rückmeldung mit dem Ziel, die nächste Verbesserungshandlung zu ermöglichen; sie ist zielklar, spezifisch, zeitnah und handlungsleitend und mündet in eine sichtbare Überarbeitung.<ref>Shute, V. J. (2008)</ref> 
'''Feedback-Literacy.''' Fähigkeit von Lernenden (und Lehrenden), Rückmeldungen zu verstehen, zu bewerten, in Handlungen zu übersetzen und die Wirkung der Handlung zu prüfen; umfasst Kriteriensensibilität, Evidenzorientierung und Priorisierung.<ref>Carless, D.; Boud, D. (2018)</ref> 
'''Scaffolding.''' Zeitweilige, strukturierende Unterstützung in der Zone der nächsten Entwicklung; Hilfe wird mit wachsender Kompetenz schrittweise reduziert.<ref>Vygotsky, L. S. (1978)</ref> 
'''aiMOOC.''' Offener, KI-gestützter Lernkurs mit integrierten Interaktionen und Sofort-Rückmeldungen, der adaptives Lernen und Mehrfachdifferenzierung ermöglicht und als Basisstufe von FELIX dient.<ref>Glanz, Udo (2019)</ref><ref>Glanz, Udo (2025)</ref> 
'''Vertrauensstufen.''' Kompetenzbasiertes Zugangsmodell zu KI-Funktionen; schrittweise Freischaltung je nach nachgewiesener Feedback-Kompetenz und Medienverantwortung (z. B. Tablet-/KI-Führerschein).<ref>Glanz, Udo (2024)</ref>
'''Feed Up / Feed Back / Feed Forward.''' Zielklärung, Standortbestimmung und nächster Schritt als Dreischritt wirksamer Rückmeldung; Kernheuristik der FELIX-Architektur.<ref>Hattie, J.; Timperley, H. (2007)</ref> 
'''Kognitive Belastung.''' Begrenzte Arbeitsgedächtniskapazität, die durch priorisierte, kurze, kriteriennahe Hinweise geschont und für lernrelevante Verarbeitung genutzt werden sollte.<ref>Sweller, J. (1988)</ref>


== Teil II: Das Modell FELIX im Detail ==
== Literatur und weiterführende Quellen ==
=== F – '''Free Learning''' (aiMOOCs mit Sofort-Feedback) ===
Die folgenden Werke bilden die theoretische Grundlage des Modells und seiner Umsetzung in aiMOOC-basierten Lernumgebungen, Peer- und Mentorenformaten sowie KI-gestützten Rückmelderoutinen:
Schüler:innen arbeiten selbstorganisiert mit individuell generierten aiMOOCs z. B. auf [[MOOCit.de]] oder [[aiMOOC.org]]. aiMOOCs sind Massive Open Online Courses, die über spezialisierte Prompts bzw. den [https://chatgpt.com/g/g-70HqqNES8-aimooc aiMOOC-GPT] erzeugt, fachlich geprüft und offen publiziert werden. Sie enthalten Texte, Bilder, Videos sowie offene und interaktive Aufgaben; eingebettete Checks (z. B. Multiple Choice, Memory-Zuordnung, Kreuzworträtsel) liefern das erste, unmittelbare Feedback, ohne dass Lernende direkt mit einer KI interagieren. Das [[Bildungsnetz|aiMOOC-Bildungsnetz]] ermöglicht [[Adaptives Lernen|adaptives Lernen]] mit [[Selbstdifferenzierung]] bzw. [[Mehrfachdifferenzierung]] für [[Blended Learning]] und [[Flipped Classroom]]. Diese Online-Lernkurse sind die Arbeitsblätter der Zukunft: [[AI_MOOC#Vorteile_eines_aiMOOCs|individuell, klimafreundlich, kostenlos]].<ref>Glanz, Udo (2019): [[MOOCs selbst erstellen|MOOCs selbst erstellen – P4P MOOCs in Schule, Ausbildung, Studium]]. Glanz-Verlag.</ref><ref>Glanz, Udo (2025): ''[[KI-Bildungsbuffet]] – aiMOOCs in der Praxis''. Glanz-Verlag.</ref>
<references/>


=== E – '''Evaluation''' (Peer-Feedback) ===
== Schlussbild: FELIX als schulischer Arbeitsrhythmus ==
Die nächste Form des Feedbacks erfolgt im sozialen Lernraum durch Peer-Feedback. Evaluation wird nicht als beiläufige Unterstützung verstanden, sondern als kriteriengeleitetes, strukturiertes Element kooperativen Lernens. Sie fördert fachliches Verständnis, Kommunikationsfähigkeit, Verantwortungsübernahme und Feedback-Literacy. Qualität entsteht durch klare Kriterien, kurzes Training in konstruktiver Rückmeldung und schlanke Dokumentation (z. B. „2 Stärken – 1 nächster Schritt“).<ref>Carless, D.; Boud, D. (2018): The development of student feedback literacy. ''Assessment & Evaluation in Higher Education'', 43(8), 1315–1325.</ref><ref>Topping, K. J. (1998): Peer assessment between students. ''Review of Educational Research'', 68(3), 249–276.</ref>
FELIX ist kein einmaliges Projekt, sondern ein schulischer Arbeitsrhythmus: Ziele und Kriterien sichtbar machen; kurze, kriterienfokussierte Rückmeldungen geben; genau einen nächsten Schritt priorisieren; die Änderung zeitnah und sichtbar umsetzen; den Transfer in eine neue Situation planen. Die KI verstärkt diesen Rhythmus, indem sie Diagnosen beschleunigt und Beispiele variiert, ohne pädagogische Entscheidungen zu ersetzen. FIX sichert dieselben Wirkprinzipien unter engen Ressourcen und dient als Brücke, bis Evaluation und Mentoring aufgebaut sind. So wird Feedback vom sporadischen Ereignis zur verlässlichen Kultur – transparent, gerecht und lernwirksam.


=== L – '''Learning Mentor''' (gezielte Expertenstütze) ===
Wenn Peer-Feedback nicht ausreicht, bieten Mentor:innen kurzzeitige, fachlich fokussierte Strukturhilfe. Die Rolle unterscheidet sich vom Peer-Feedback durch höhere fachliche Sicherheit, klar definierte Zeitfenster und dokumentierte Interventionen (Problem – Intervention – Wirkung – Follow-up). Das Prinzip „Lernen durch Lehren“ wird gezielt genutzt; Mentoring stärkt zudem das soziale Gefüge der Lerngruppe.<ref>Glanz, Udo (2024): ''[[KI-Medienmentoren]] – Eine Einführung in Medienbildung mit KI]]. Glanz-Verlag.</ref>


=== I – '''Interactive Feedback''' (KI-gestützte Impulse) ===
Spezialisierte GPTs – z. B. der [https://chatgpt.com/g/g-67330d0027f08190a3fa4bc890763fdf-feedback-schulaufgabe Feedback-Schulaufgabe-GPT] – liefern formative Impulse, ohne Lösungen vorzugeben: Fehlerdiagnose, nächste Lernschritte, Beispiele, Format-Checks. Künftig übernehmen '''AI Companions''' eine dauerhafte Rolle: Sie dokumentieren Lernprozesse, personalisieren Feedback, erkennen Entwicklungspotenziale und fördern Motivation. Diese Ebene sollte durch abgestufte '''[[Vertrauensstufen|Vertrauensstufen]]''' abgesichert sein; direkter Online-KI-Kontakt nach bestandenem [[Tablet-Führerschein]] und [[KI-Führerschein]].<ref>Glanz, Udo (2024): ''[[Vertrauensstufen|Vertrauensstufen mit KI-Einsatz in der Bildung]]''. Glanz-Verlag.</ref>


=== X – '''Xpert''' (Lehrkraft als letzte Instanz) ===
Die Lehrkraft greift nach den vorangehenden Stufen beratend, reflektierend und gewichtend ein. Sie priorisiert Hinweise, trifft fachliche Urteile, moderiert Zielanpassungen und empfiehlt nächste Schritte. Damit schließt sich der Kreis zu einem ganzheitlichen, menschlich fundierten Lernprozess. Nach dem Lernen ist vor dem Lernen: Die Lehrkraft empfiehlt weitere Vorgehensweisen und unterstützt individuelle Lernpfade.<ref>Hattie, J.; Timperley, H. (2007): The Power of Feedback. ''Review of Educational Research'', 77(1), 81–112.</ref>


=== Hinweis: '''FIX''' als Kurzform ===
Die Stufen '''E – Evaluation''' und '''L – Learning Mentor''' sind optional und können, wenn sie aktuell nicht vorhanden sind oder es dem Lernenden nicht angemessen erscheint, übersprungen werden; die Logik bleibt erhalten. Aus FELIX wird dann das 3-Schritt-Modell '''FIX'''. '''FIX''' ist doppelt passend: Es ist schneller umsetzbar (umgangssprachlich „fix“) und „to fix“ bedeutet etwas beheben/festigen – das reduzierte Modell ermöglicht unmittelbares maschinelles Feedback und professionelle Rahmung, sodass Lernhindernisse gezielt „gefixt“ werden.


== Teil III: Umsetzung in der Schule ==
=== Einführung und Skalierung ===
Schulentwicklung verläuft iterativ: Pilotieren in einzelnen Kursen, kollegiale Auswertung, Fortbildung, curriculare Verankerung, Qualitätssicherung. Zuständigkeiten werden geklärt (Steuergruppe, Technik, Datenschutz, Fachgruppen). Policy-Bausteine umfassen Vertrauensstufen, Führerscheine, Vorlagen für Lernjournal, Feedback-Log und Kriterienraster. Erfolgskriterien sind Transparenz, Frequenz, Passung, Wirkung und Sicherheit.


=== Unterrichtsdesign mit FELIX/FIX ===
Drei typische Szenarien: Deutsch (Analyseaufgabe im aiMOOC, Peer-Feedback, KI-Impuls, Lehrkraft-Coaching), Mathematik (Fehlermusterdiagnose durch KI, Mentoren-Sprechstunde, Transferaufgabe), AES/NaWi (praxisnahe Aufgaben mit Kriterienraster; bei Zeitdruck FIX). Zeitbudgets werden pro Stufe vorab geplant; Risiken (Überfrachtung, unklare Kriterien) werden durch schlanke Checklisten adressiert.


=== Dokumentation und Kommunikation ===
Lernjournal (Ziele, Hinweise, nächste Schritte), Feedback-Log (Quelle, Kriterium, Evidenz), Kompetenzfortschritt (Ampel/Meilensteine). Kommunikation nach außen (Eltern, Kollegium) fokussiert Prinzipien statt Tools: klare Kriterien, kurze Zyklen, dokumentierte Revisionen.


== Teil IV: Varianten, Risiken, Qualitätssicherung ==
=== Varianten ===
Fach- und stufenspezifische Anpassungen (z. B. stärker produktorientiert in Sprachen, stärker prozessorientiert in MINT). Offline-KI-Lösungen (lokale Modelle) als Datenschutz-Option mit funktionalen Grenzen; Online-Companions mit höherer Leistungsfähigkeit, aber strengeren Leitplanken.


=== Risiken und Gegenmaßnahmen ===
Überabhängigkeit von KI wird durch Mensch-im-Loop und Stichprobenprüfungen begrenzt; Datenrisiken durch Datensparsamkeit, Rollenrechte, klare Speicherfristen; Bias durch kuratierte Beispiele und Diversitätschecks; Barrierefreiheit durch medienarme Alternativen und klare Sprache. Qualitätssicherung erfolgt über kollegiale Hospitationen mit Fokus auf Kriterien-Transparenz, Taktung und dokumentierte Revisionen.


== Teil V: Vorlagen, Glossar, Literatur ==
=== Vorlagen (Auszug) ===
Kriterienraster „Gute Rückmeldung“ (Dimensionen: Bezug zum Ziel, Beleg, nächster Schritt, Tonalität, Aktivierung); Peer-Feedback-Karte („2 Stärken – 1 Schritt“); Mentoring-Protokoll (Problem – Intervention – Wirkung – Follow-up); Lernjournal-Seite (Ziel, Hinweis, Aktion, Evidenz). Kompakte Prompt-Bausteine für '''I – Interactive Feedback''' ohne Zeilenumbrüche: {{o}} „Prüfe Zielkriterien X/Y, nenne 2 Stärken und 1 nächsten Schritt – ohne Lösung zu verraten“ {{o}} „Formuliere 3 Leitfragen zur Verbesserung von Abschnitt Z“ {{o}} „Gib ein Minimal- und ein Gegenbeispiel für Konzept Q“.


=== Glossar (Auswahl) ===
Formative Rückmeldung (prozessbegleitende, handlungsleitende Rückmeldung); Feedback-Literacy (Kompetenz, Rückmeldungen zu verstehen, zu bewerten und umzusetzen); Scaffolding (zeitweilige, strukturierende Unterstützung); aiMOOC (offener, KI-gestützter Lernkurs mit Interaktionen); Vertrauensstufen (kompetenzbasierte Zugänge zu KI-Funktionen); Lernjournal (verdichtete Dokumentation von Ziel – Hinweis – Aktion – Evidenz).


== FELIX als Wegweiser für zukunftsfähige Feedbackkultur ==
'''FELIX''' ist mehr als eine Methode; es ist eine robuste Architektur, die wissenschaftliche Evidenz mit schulpraktischer Umsetzbarkeit verbindet. Die Kombination aus freiem Lernen (F), sozialer Evaluation (E), Lernmentorenschaft (L), intelligenter, individueller, interaktiver Rückmeldung (I) und reflektierter Expertise (X) erzeugt verlässliche Lerngewinne, stärkt Beziehungen und fördert Lernfreude. '''FIX''' sichert dieselben Wirkprinzipien unter engen Ressourcen. Entscheidend sind transparente Kriterien, kurze Schleifen und dokumentierte Revisionen – damit Lernen sichtbar wird und Fortschritt verlässlich gelingt.


== Quellen und weiterführende Literatur ==
= VERSION 2=
Die folgenden Werke bilden die theoretische Grundlage des Modells und seiner Umsetzung.
<br>
<references/>





Aktuelle Version vom 1. Dezember 2025, 08:51 Uhr



FELIX




FELIX – Feedbackkultur mit KI

Vorwort

Dieses Buch entfaltet mit FELIX und der Kurzform FIX eine wissenschaftlich begründete, praxistaugliche Architektur für Feedbackkultur im Zeitalter der Künstlichen Intelligenz (KI). Im Zentrum steht Lernen als sozial eingebetteter, kognitiv anspruchsvoller und zielgerichteter Prozess, der durch geeignete Rückmeldungen sichtbar, steuerbar und nachhaltig wird. Forschung zu formativer Beurteilung und Feedback zeigt konsistent: Rückmeldungen sind dann wirksam, wenn sie früh ansetzen, an expliziten Zielen ausgerichtet sind, sich auf beobachtbare Merkmale beziehen, handlungsleitend formuliert sind und zeitnah in Überarbeitung münden.[1][2][3]

FELIX beschreibt fünf ineinandergreifende Stufen:

  1. Free Learning (strukturierte Lernumgebungen mit Sofort-Rückmeldung),
  2. Evaluation (Peer-Feedback),
  3. Learning Mentor (gezielte Expertenstütze),
  4. Interactive Feedback (KI-gestützte Impulse) und
  5. (E)Xpert (reflektierende Lehrkraft).




FIX ist die pragmatische Kurzform ohne E und L, wenn Peer- oder Mentorenstrukturen situativ fehlen. Der Name FELIX verweist etymologisch auf felix = der Glückliche/Erfolgreiche/Fruchtbare und steht sinnbildlich für eine Lernkultur, die Freude, Wirksamkeit und Wachstum ermöglicht.

KI wird in diesem Rahmen als Verstärker genutzt, nicht als Ersatz pädagogischer Professionalität. Sie kann Fehlermuster identifizieren, Beispiele variieren, Kriterien operationalisieren und adaptive Aufgaben vorschlagen; dafür braucht es Leitplanken zu Transparenz, Korrektheit, Fairness, Datenschutz und Barrierefreiheit sowie ein kompetenzbasiertes Zugangsmodell (Vertrauensstufen).[4][5][6]


Abbildung: FELIX kann zur Kurzform FIX werden (ohne E und L).


Als strukturgebende Lernumgebung dienen aiMOOCs mit integrierten Interaktionen und Sofort-Rückmeldungen; sie werden über spezialisierte Prompts/GPTs erzeugt, fachlich gerahmt und offen publiziert und unterstützen adaptives Lernen, Mehrfachdifferenzierung und ressourcenschonende Unterrichtsvorbereitung.[7][8]


Teil I: Grundlagen der Feedbackkultur

Warum Feedback der Motor von Lernen ist

Feedback ist kein Zusatz, sondern die zentrale Steuergröße wirksamen Unterrichts. Lernende bewegen sich beständig zwischen einem aktuellen Leistungsstand und einem angestrebten Kompetenzziel; Feedback schließt die Lücke, indem es Orientierung gibt, Fehlerbilder sichtbar macht und konkrete nächste Schritte ausweist. Forschung zu formativer Beurteilung zeigt über Fächer und Stufen hinweg, dass nicht die Menge der Rückmeldungen, sondern deren Qualität und Einbettung in Lernhandlungen über den Lernerfolg entscheidet: Wirksam ist Feedback, wenn es zielklar, spezifisch, zeitnah und handlungsleitend ist – und wenn es in eine nachfolgende Überarbeitung mündet.[9][10][11] Dieses Verständnis rahmt FELIX: Rückmeldung ist kein Ereignis am Ende, sondern ein Zyklus aus Zielklärung, Diagnose und gezielter Weiterarbeit.

Begriffsklärungen: Feedback, Evaluation, Überarbeitung

In diesem Buch bezeichnet Feedback die kriterienbezogene Rückkopplung zwischen einem Lernprodukt oder Lernprozess und einem transparent gemachten Zielzustand. Formative Rückmeldung begleitet das Lernen, indem sie den Weg zum Ziel strukturiert; summative Rückmeldung bilanziert Leistungen zu einem Stichtag. Beide Formen können koexistieren, erfüllen aber unterschiedliche Zwecke. Für Lernwachstum ist die formative Funktion entscheidend, denn sie liefert präzise Hinweise, die Lernende unmittelbar in Verbesserungen übersetzen können.[12] Evaluation wird hier eng gefasst als kriteriengeleitete Einschätzung durch Lernpartner:innen (Peer-Feedback) oder Mentor:innen, mit dem Ziel, Qualität zu erhöhen – nicht, Noten zu vergeben. Überarbeitung schließlich ist konstitutiver Bestandteil jeder Rückmeldung: Ohne eine sichtbare Revision bleibt Feedback pädagogisch folgenlos. FELIX macht diese drei Elemente explizit und verteilt sie auf Rollen und Stufen, sodass aus punktuellen Rückmeldungen eine verlässliche Kultur entsteht.

Theoretische Fundamente und Implikationen

Lernen ist in weiten Teilen sozial eingebettet. Sozial-konstruktivistische Perspektiven betonen, dass Bedeutung in Interaktionen entsteht; Rückmeldungen sind deshalb als nachvollziehbarer Dialog über Kriterien zu gestalten, in dem Beispiele, Gegenbeispiele und Belege eine zentrale Rolle spielen.[13] Wygotskys Zone der nächsten Entwicklung unterstreicht, dass Fortschritt dort besonders gut gelingt, wo Lernende knapp jenseits ihres aktuellen Kompetenzniveaus arbeiten und stützende Hilfen (Scaffolds) erhalten – sei es durch Peers, Mentor:innen, KI-Impulse oder Lehrkraft.[14] Die Selbstbestimmungstheorie erklärt die motivationalen Bedingungen wirksamen Feedbacks: Autonomie (Wahlmöglichkeiten und Verantwortung), Kompetenz (sichtbare Fortschritte) und soziale Eingebundenheit (wertschätzende Beziehung) müssen adressiert werden, damit Rückmeldungen nicht als Kontrolle, sondern als Unterstützung erlebt werden.[15] Modelle selbstregulierten Lernens zeigen, dass Lernende Strategien zum Planen, Überwachen und Anpassen ihres Handelns benötigen; gut gestaltete Rückmeldungen initiieren genau diese metakognitiven Prozesse und werden in Lernjournalen dokumentiert.[16] Schließlich begrenzt die kognitive Belastbarkeit, wie viel Information sinnvoll verarbeitet werden kann: Wenige priorisierte Hinweise, die an Kriterien andocken und in eine konkrete Aktion münden, sind lernwirksamer als breite, unsortierte Kommentierungen.[17] Die Feedback-Interventionstheorie ergänzt: Rückmeldungen, die Aufmerksamkeit von der Aufgabe weg auf die Person lenken, können Leistung mindern; kriterienfokussierte, aufgabennahe Impulse sind überlegen.[18]

Designprinzipien wirksamer Rückmeldung

Aus diesen Fundierungen ergeben sich klare Gestaltungsprinzipien für Unterricht und Materialentwicklung. Erstens verlangt wirksames Feedback eine transparente Ziel- und Kriterienarbeit: Lernende müssen wissen, woran Qualität erkennbar ist; Beispiele und Gegenbeispiele helfen, Kriterien zu operationalisieren. Zweitens sollten Hinweise sich auf beobachtbare Merkmale beziehen, nicht auf Intuitionen – etwa auf Textstruktur, Argumentationsqualität, Belegführung, Rechenwege oder Messprotokolle. Drittens gilt das Prioritätsprinzip: Ein einziger nächster Schritt ist oft produktiver als fünf gleichzeitige Forderungen. Viertens ist Zeitnähe zentral: Je kürzer die Lücke zwischen Handlung und Rückmeldung, desto höher die Umsetzungswahrscheinlichkeit. Fünftens schließt jeder Zyklus mit einer sichtbaren Überarbeitung und einem kurzen Reflexionsimpuls (Was wurde geändert? Warum? Welche Evidenz stützt die Änderung?). Eine kompakte Heuristik lautet:

  1. Ziel und Kriterium benennen
  2. beobachtbare Evidenz anführen
  3. genau einen nächsten Schritt priorisieren
  4. Änderung dokumentieren. Diese Logik entspricht dem Dreischritt Feed Up – Feed Back – Feed Forward und wird in Übersichtsarbeiten zu formativer Beurteilung breit gestützt.[19][20]

Aufgabenqualität als Dreh- und Angelpunkt

Aufgaben sind der Motor jeder Feedbackkultur. Sie definieren den Erkenntnisraum, in dem Kriterien bedeutsam werden, und erzeugen die natürlichen „Ankerpunkte“ für Rückmeldungen. Gute Aufgaben erzwingen Denken statt bloßer Reproduktion, lassen verschiedene Lösungswege zu und enthalten eingebettete Checkpunkte, an denen Zwischenstände sinnvoll überprüft werden können. Eine robuste Progression besteht aus drei Phasen: In der Verstehensphase werden Konzepte geklärt und diagnostische Kurzaufgaben genutzt, um Fehlvorstellungen sichtbar zu machen; in der Anwendungsphase wird mit Kriterien gearbeitet, die Qualität von Produkten oder Problemlösungen messbar machen; in der Transferphase wird das Gelernte auf neue Kontexte übertragen. Digitale aiMOOCs erleichtern diese Architektur, indem sie Sofort-Rückmeldungen für formale und grundlegende Aspekte bereitstellen (z. B. Format, Struktur, Basiskorrektheit), während anspruchsvollere Qualitätsmerkmale (z. B. Argumentationslogik, empirische Angemessenheit, Modellgüte) über Peer-Dialoge, Mentoring, KI-Impulse und Lehrkraft-Feedback adressiert werden.[21][22] Aus Sicht der kognitiven Belastung bewähren sich dabei kleinschrittige Aufgabenketten, Beispiel–Gegenbeispiel-Paare und fokussierte Kriterienraster, die extrinsische Belastung reduzieren und die aufgabenrelevante Verarbeitung stärken.[23]

Prozessarchitektur eines lernwirksamen Zyklus

Ein zielführender Feedbackzyklus in FELIX beginnt mit einer kurzen Ziel- und Kriterienklärung, die nicht nur verbal, sondern mit Artefakten (Beispiel, Gegenbeispiel, Kurzrubrik) abgesichert wird. Es folgt ein Erstentwurf oder eine Erstlösung; eingebettete Systemhinweise (z. B. im aiMOOC) prüfen formale Mindeststandards. Darauf baut eine dialogische Sequenz auf: ein kurzer, kriteriengeleiteter Peer-Austausch mit einer priorisierten Empfehlung; bei Bedarf ein 10–15-minütiges Mentoring-Fenster für strukturierende Unterstützung; anschließend ein KI-Impuls zu genau einem fokussierten Aspekt (z. B. Klarheit von Definitionen, Kohärenz eines Beweisschrittes, Angemessenheit einer Datenvisualisierung); schließlich das Meta-Feedback der Lehrkraft, das gewichtet, priorisiert und auf Transferchancen hinlenkt. Jede Rückmeldestufe endet mit einer konkret geplanten Änderung, die im Lernjournal dokumentiert wird (Ziel – Hinweis – Aktion – Evidenz – Reflexion). Diese Architektur verbindet hohe Frequenz mit kognitiver Steuerbarkeit und macht Fortschritt sichtbar.[24][25]

Rollen und geteilte Verantwortung in FELIX/FIX

FELIX verteilt Verantwortung auf fünf Rollen, die sich ergänzen und gegenseitig absichern. Lernende sind aktive Akteure: Sie bringen Ziele, Zwischenstände und Belege ein, entscheiden mit, welchen Hinweis sie zuerst umsetzen, und dokumentieren ihre Änderungen. Peers steigern die Dichte und Vielfalt von Rückmeldungen; richtig angeleitet, erhöhen sie die Kriteriensensibilität der ganzen Lerngruppe und professionalisieren die Sprache des Feedbacks.[26][27] Mentor:innen bieten über das Peer-Niveau hinaus strukturierende Kurzinterventionen in der ZPD; sie helfen, Denkwege zu ordnen, ohne Lösungen vorzugeben.[28] KI-Assistenten liefern hochfrequente, kriteriennahe Impulse, generieren Beispiele, prüfen Formate und schlagen nächste Schritte vor – stets gekennzeichnet, fachlich geprüft und in didaktische Routinen eingebettet.[29] Die Lehrkraft fungiert als Xpert: Sie priorisiert, gewichtet und rahmt, sorgt für Anschluss an Standards, Fairness, Datenschutz und Barrierefreiheit und behält den langfristigen Kompetenzaufbau im Blick.[30]

KI als Verstärker: Potenziale, Grenzen und Leitplanken

KI kann diagnostische Präzision und Rückmeldefrequenz deutlich erhöhen. Sie erkennt Muster in Texten, Rechnungen oder Messdaten, generiert Vergleichsbeispiele und operationalisiert Kriterien, etwa indem sie typische Fehlerschritte markiert und Alternativen aufzeigt. Doch gerade weil KI leistungsfähig ist, braucht sie pädagogische Leitplanken: Transparenz über ihren Einsatz (Kennzeichnung, Quellenlage), fachliche Prüfung kritischer Hinweise, Datensparsamkeit und klare Speicherfristen, Bias-Achtsamkeit (z. B. Diversitätschecks bei Beispielen) sowie barrierearme Formate. Ein kompetenzbasiertes Zugangsmodell – Vertrauensstufen – stellt sicher, dass Lernende Funktionen schrittweise freischalten, wenn sie zeigen, dass sie Feedback verantwortungsvoll nutzen (z. B. nach bestandenem Tablet- und KI-Führerschein).[31] So wird KI zum Verstärker einer bereits tragfähigen Feedbackkultur – nicht zu deren Ersatz.

Häufige Missverständnisse und Gegenstrategien

Drei verbreitete Missverständnisse behindern wirksame Rückmeldungen. Erstens: Mehr ist besser. Empirisch belastbar ist das Gegenteil – wenige, priorisierte Hinweise mit hohem Umsetzungsgrad schlagen umfangreiche Kommentarlisten.[32] Zweitens: Lob genügt. Wertschätzung ist wichtig, ersetzt aber keine kriteriengeleitete Anleitung zur Verbesserung. Drittens: Die KI macht es schon. Ohne didaktische Rahmung, Kriterienklarheit und eine verbindliche Überarbeitungsphase produziert selbst gute KI-Rückmeldung kaum Lerngewinn. Gegenstrategien sind transparente Kriterienarbeit, kurze, planbare Schleifen, explizite Überarbeitungsaufträge, Lernjournale sowie eine systematische Schulung in Feedback-Literacy, damit Lernende Rückmeldungen verstehen, bewerten und in Handlungen überführen können.[33]

Übergang zu Teil II

Die in Teil I entwickelten Prinzipien bilden das Fundament für das Modell FELIX. In Teil II werden die fünf Stufen – Free Learning, Evaluation, Learning Mentor, Interactive Feedback und Xpert – im Detail entfaltet. Jede Stufe erhält klare Ziele, typische Inputs und Outputs, Qualitätskriterien, wiederkehrende Routinen sowie konkrete Gegenmittel gegen häufige Fehlsteuerungen. Zugleich wird die Kurzform FIX erläutert, die – wo Ressourcen fehlen oder Passung nicht gegeben ist – die Logik von Ziel – Diagnose – nächster Schritt mit drei Stufen aufrechterhält.





Teil II: Das Modell FELIX im Detail

F – Free Learning (aiMOOCs mit Sofort-Feedback)

Ziel und didaktische Logik. Free Learning ist das Eingangstor der FELIX-Architektur. Lernende arbeiten selbstgesteuert in strukturierten, offen zugänglichen Lernkursen (aiMOOCs), die Inhalte, Aktivitäten und unmittelbar wirksame Mikrorückmeldungen verbinden. Die Stufe F schafft einen verlässlichen Grundtakt: Vor jeder sozialen oder professionellen Rückmeldung wird Basisqualität hergestellt (Form, Struktur, elementare Richtigkeit). Dadurch werden spätere Feedbackressourcen (Peers, Mentor:innen, Lehrkraft) entlastet und können sich auf höherwertige Qualitätsmerkmale konzentrieren – Argumentationslogik, Problemstrategien, Modellgüte. Diese Vorstrukturierung entspricht der Einsicht, dass kurze, häufige und kriteriennahe Rückmeldeschleifen die lernwirksamsten sind.[34][35]

Struktur und Ablauf. Ein aiMOOC beginnt mit einer expliziten Ziel- und Kriterienklärung, illustriert durch Beispiel und Gegenbeispiel. Es folgt eine Folge kleiner Aufgaben, die jeweils einen eingebetteten Check enthalten (z. B. Formatprüfung, Strukturhinweis, grundlegende Richtigkeitskontrolle). Lernende erhalten sofortige, knappe Mikrohints, setzen eine Mini-Revision um und dokumentieren diese im Lernjournal (Ziel – Hinweis – Aktion – Evidenz). Auf diese Weise entstehen beobachtbare Spuren des Lernens, die in den Folgestufen (E, L, I, X) aufgegriffen und verdichtet werden. Die aiMOOC-Umgebung eignet sich dafür, weil sie Interaktion, offene Publikation und differenzierbare Pfade verbindet.[36][37]

Qualitätskriterien und Heuristiken. Wirksam ist F, wenn Kriterien sichtbar und operationalisiert sind, Aufgabenprogression kleinschrittig verläuft und Mikrohints strikt auf ein Merkmal zielen. Eine kompakte Heuristik lautet:

  1. Kriterium zuerst sichtbar machen
  2. maximal zwei Mikrohints pro Aufgabe
  3. genau ein nächster Schritt
  4. Mini-Revision mit Evidenz. Diese Fokussierung schont Arbeitsgedächtnisressourcen und erhöht die Wahrscheinlichkeit, dass Hinweise umgesetzt werden.[38]

Häufige Fehlsteuerungen und Gegenmittel. Typische Probleme sind überfrachtete Aufgaben, unklare Kriterien oder zu lange Hints. Gegenmittel sind eine klare Kriterienkarte am Aufgabenbeginn, Beispiel–Gegenbeispiel-Paare, strikte Längenbegrenzung für Hints und verpflichtende Mini-Revisionen. F dient nicht der Vollkorrektur, sondern der Basisstabilisierung; alles Weitere folgt in E, L, I, X.

Dokumentation und Anschluss. Jede Aufgabe erzeugt eine kurze Spur im Lernjournal. Diese Dokumentation erlaubt späteren Rollen (Peers, Mentor:innen, Lehrkraft), gezielt dort einzusetzen, wo der Lernprozess stockt, und verhindert redundante Rückmeldungen.


E – Evaluation (Peer-Feedback)

Ziel und didaktische Logik. Evaluation ist kriteriengeleitetes Peer-Feedback als strukturierte, soziale Qualitätsprüfung. Sie erweitert Perspektiven, trainiert Feedback-Literacy und verankert die Sprache der Kriterien im Klassenraum. Dabei ersetzt sie keine Bewertung, sondern liefert handlungsleitende Entwicklungshinweise. Das dialogische Moment ist zentral: In der ko-konstruktiven Auseinandersetzung über Belege und Qualitätsmerkmale verdichten Lernende ihr Verständnis von „guter Arbeit“. Forschung zeigt, dass Peers – gut angeleitet – sowohl Leistung als auch Metakognition positiv beeinflussen können.[39][40]

Struktur und Ablauf. Nach F bringt jedes Team ein Zwischenprodukt mit klar benannter Ziel-Kriterium-Kombination ein. Peers prüfen an genau diesem Fokus, benennen eine evidenzbasierte Stärke und einen priorisierten nächsten Schritt, der in der verfügbaren Zeit realistisch ist. Der Austausch ist zeitlich knapp gehalten und folgt Satzstartern („Ich sehe Kriterium X belegt in …; ein nächster Schritt wäre …, weil …“). Anschließend setzen Lernende einen einzigen Verbesserungsschritt um und dokumentieren ihn.

Qualitätskriterien und Heuristiken. Qualität entsteht über Fokussierung, Sprachstützen und Evidenzpflicht. Eine verdichtete Heuristik lautet:

  1. ein Kriterium
  2. ein Beleg
  3. ein nächster Schritt
  4. sofortige Umsetzung. Diese Regel verhindert „Gefälligkeitsfeedback“ und vage Allgemeinplätze und lenkt Aufmerksamkeit auf das, was den größten Lerngewinn verspricht.

Häufige Fehlsteuerungen und Gegenmittel. Gefahren sind Personenbezug, ausufernde Diskussionen und Multi-Topic-Feedback. Gegenmittel: Kriterienstarter, zeitliche Taktung (z. B. 2 + 2 + 1 Minuten für Beleg – Schritt – Vereinbarung), Peer-Checklisten mit Minimalanforderungen (Belegpflicht) und die explizite Trennung von Würdigung und Diagnose.

Dokumentation und Anschluss. Die Peer-Feedback-Karte (Kriterium, Evidenz, nächster Schritt) wird dem Lernjournal beigefügt. Sie ist Ausgangspunkt für L oder I und ermöglicht der Lehrkraft in X, Prioritäten transparent nachzuvollziehen.


L – Learning Mentor (gezielte Expertenstütze)

Ziel und didaktische Logik. Learning Mentors sind thematisch versierte Lernende oder geschulte Schüler-Expert:innen, die über das Peer-Niveau hinaus kurzzeitige Strukturhilfe bieten. Sie wirken als „Brücke“ in der Zone der nächsten Entwicklung: Wenn Peers an Grenzen stoßen (z. B. bei komplexer Argumentation oder Modellierung), strukturieren Mentor:innen Denkwege, ohne Lösungen vorzugeben. Das Prinzip „Lernen durch Lehren“ steigert zugleich das Verständnis der Mentor:innen selbst.[41][42]

Struktur und Ablauf. Mentoring erfolgt in klar begrenzten 10–15-Minuten-Slots. Vor Beginn formuliert die Ratsuchende Person einen fokussierten Bedarf (z. B. „Kriterium: Kohärenz der Argumentation; Problem: Sprung zwischen Beleg A und Schluss B“). Die Mentor:in liefert maximal zwei Interventionen: eine Strukturierung (z. B. Argument-Template) und eine Leitfrage. Nach der Sitzung wird eine einzige Änderung vereinbart und nach kurzer Zeit kontrolliert (Follow-up).

Qualitätskriterien und Heuristiken. Wirksam ist L, wenn es fokussiert, zeitlich knapp und evidenzorientiert bleibt. Eine Heuristik – ohne Zeilenumbruch – lautet:

  1. Bedarf präzisieren
  2. zwei Interventionen maximal
  3. eine Änderung vereinbaren
  4. Follow-up terminieren. So wird verhindert, dass Mentoring in umfangreiche Nachhilfe ausufert.

Häufige Fehlsteuerungen und Gegenmittel. Risiken sind Überbetreuung (Reduktion der Eigenaktivität), Lösungsvorwegnahme oder Rollenvermischung mit der Lehrkraft. Gegenmittel: Rollenklarheit (Scaffolding statt Korrektorat), Protokollpflicht (Problem – Intervention – Wirkung – Follow-up) und zyklische Rotation der Mentor:innen zur Fairness.

Dokumentation und Anschluss. Das Mentoring-Protokoll wird dem Lernjournal beigefügt; es zeigt, welche Strukturhilfe gegeben wurde und welche Wirkung erwartet wird. Diese Transparenz erleichtert den Übergang zu I und X.


I – Interactive Feedback (KI-gestützte Impulse)

Ziel und didaktische Logik. In I liefert KI kriteriennahe, hochfrequente Impulse, ohne Lösungen vorwegzunehmen. Sie diagnostiziert Fehlermuster, erzeugt Gegenbeispiele, prüft Formatkriterien und schlägt nächste Schritte vor. Ihr größter Vorteil liegt in der Taktung: Hinweise erscheinen genau dann, wenn sie gebraucht werden, und können individualisiert werden – stets unter pädagogischer Rahmung und mit klarer Kennzeichnung als KI-Hinweis.[43]

Struktur und Ablauf. Lernende übergeben der KI einen gezielten Auftrag, der an Kriterien andockt (z. B. „Prüfe Kohärenz meiner Begründung gemäß Kriterium X“). Die KI antwortet in einem festen Format: zwei Stärken, ein priorisierter nächster Schritt, optional eine Leitfrage oder ein Minimal-/Gegenbeispiel. Die Lehrkraft definiert vorher, welche Aspekte automatisiert geprüft werden dürfen und wo menschliche Prüfung zwingend ist. Optional kommen spezialisierte GPTs (z. B. der Feedback-Schulaufgabe-GPT) zum Einsatz; in sensiblen Kontexten sind Offline-Varianten sinnvoll. Vertrauensstufen regeln, welche Funktionen Lernende nutzen dürfen und wann (z. B. nach bestandenem Tablet-Führerschein und KI-Führerschein).[44]

Qualitätskriterien und Heuristiken. Damit I lernwirksam bleibt, gelten klare Leitplanken: Kennzeichnung aller KI-Hinweise; Bezug auf Kriterien und beobachtbare Evidenz; keine Lösungsvorwegnahme; ein einziger, machbarer nächster Schritt; verpflichtende Mini-Revision. Eine kompakte Prompt-Heuristik – ohne Zeilenumbruch – lautet:

  1. „Prüfe Kriterium X/Y an meinem Abschnitt Z
  2. nenne 2 Stärken
  3. formuliere 1 nächsten Schritt
  4. stelle 1 Leitfrage – ohne die Lösung zu verraten“.

Häufige Fehlsteuerungen und Gegenmittel. Risiken sind Überabhängigkeit („KI wird schon richten“), zu breite Hinweise, fehlende Anschlussaktionen oder Datenschutzprobleme. Gegenmittel: Mensch-im-Loop-Prinzip (Lehrkraft priorisiert kritische Punkte), strenge Längenbegrenzung, Pflicht zur Revision mit Nachweis, Datensparsamkeit und klare Speicherregeln. KI ergänzt, ersetzt aber keine professionelle Entscheidung.

Dokumentation und Anschluss. KI-Hinweise werden im Lernjournal als solche markiert, die umgesetzte Änderung wird kurz begründet. Diese Spur ist Ausgangspunkt für X und verhindert, dass in der Lehrkraft-Konferenz Altes wiederholt wird.


X – Xpert (Lehrkraft als letzte Instanz)

Ziel und didaktische Logik. X bündelt, gewichtet und rahmt: Die Lehrkraft sichtet die Spuren aus F, E, L und I, priorisiert Hinweise, trifft fachliche Urteile, moderiert Zielanpassungen und empfiehlt nächste Lernschritte. Sie ist Garantin für fachliche Korrektheit, Passung, Fairness, Datenschutz und Barrierefreiheit und verknüpft die aktuelle Aufgabe mit längerfristigen Kompetenzzielen. Die Forschung ordnet diese Meta-Feedback-Rolle zentral ein: Sie entscheidet darüber, ob Rückmeldungen in nachhaltigen Kompetenzaufbau münden.[45]

Struktur und Ablauf. Eine 5-Minuten-Lernkonferenz pro Team reicht oft: Kurzdiagnose anhand der Journalspuren, zwei Fokuspunkte (eine Stärke, ein Entwicklungsfeld), eine konkrete Empfehlung (z. B. „Wiederhole Argumentbaustein B und belege ihn, dann wähle Aufgabe T zur Transfersicherung“), Verabredung einer Frist. Wenn nötig, ordnet die Lehrkraft die Reihenfolge künftiger Lernpfade und verweist auf Ressourcenkacheln (Beispiele, Rubriken, Kurzhilfen).

Qualitätskriterien und Heuristiken. X ist wirksam, wenn es knappe, strategische Impulse liefert, die an Ziele und Kriterien andocken, Anschluss an Standards sichern und den Transfer vorbereiten. Eine Heuristik – ohne Zeilenumbruch – lautet:

  1. Diagnose aus Spuren
  2. ein strategischer Fokus
  3. ein Transferauftrag
  4. klare Frist und Evidenzform.

Häufige Fehlsteuerungen und Gegenmittel. Gefahren sind Detailversinken, „Überkommentieren“ und Doppelung bereits gegebener Hinweise. Gegenmittel: strikte Orientierung an Journalspuren, Verzicht auf Wiederholung, Fokus auf Strategien statt Kleinstfehler, Transferorientierung (neue Situation, gleiches Kriterium).

Dokumentation und Anschluss. Das Xpert-Feedback schließt den Zyklus mit einer sichtbaren Entscheidung: Was bleibt, was wird geändert, was wird transferiert? Mit dieser Entscheidung beginnt die nächste Runde – FELIX ist ein Rhythmus, kein einmaliger Akt.


Hinweis: FIX als Kurzform

Die Stufen E – Evaluation und L – Learning Mentor sind optional. Fehlen Peer- oder Mentorenstrukturen, können sie übersprungen werden, ohne die Grundlogik zu verlieren: Ziel klären, Stand diagnostizieren, nächsten Schritt umsetzen. Aus FELIX wird FIX – schneller im Vollzug (umgangssprachlich „fix“) und zugleich reparierend/festigend im Sinne von „to fix“. FIX fokussiert die Pipeline F → I → X: Basisklärung und Sofort-Rückmeldung im aiMOOC, interaktive, kriteriennahe KI-Impulse, abschließendes Meta-Feedback der Lehrkraft. Diese Kurzform ist besonders geeignet bei Zeitdruck, in neuen Setups oder als Brücke, bis Peer- und Mentorenformate aufgebaut sind. Wichtig bleibt die Verbindlichkeit der Revision und die Dokumentation im Lernjournal, damit auch in FIX jeder Hinweis in beobachtbare Veränderung überführt wird.


Übergang zu Teil III

Mit FELIX liegt ein vollständiger Ablaufplan vor, der Rollen trennt, Kriterien sichtbar macht und Überarbeitung als Regelfall etabliert. Teil III zeigt, wie Schulen diese Architektur stufenweise einführen, wie Unterrichtsdesigns für verschiedene Fächer aussehen, welche Vorlagen den Alltag erleichtern und wie Qualität über Hospitation, Dokumentationsspuren und kurze Auswertungsroutinen gesichert werden kann.






Teil III: Umsetzung in der Schule

Leitbild und Zielbild

Eine wirksame Feedbackkultur entsteht nicht durch Einzelmaßnahmen, sondern durch ein konsistentes Zusammenspiel von Aufgabenqualität, klaren Rollen, kurzen Rückmeldeschleifen, dokumentierter Revision und verlässlicher Schulorganisation. FELIX liefert dafür die Architektur; FIX ist die pragmatische Kurzform, wenn Peer- und Mentorenstrukturen (noch) fehlen. Das schulische Zielbild lautet: Unterricht, in dem Lernziele und Kriterien sichtbar sind, Feedback früh und häufig ansetzt, auf beobachtbaren Belegen beruht, einen priorisierten nächsten Schritt ausweist und in zeitnahe Überarbeitung mündet. Die KI wird als Verstärker in diese Routinen eingebettet, abgesichert durch Transparenz, Datensparsamkeit, Barrierefreiheit und kompetenzbasierte Zugänge (Vertrauensstufen).[46][47][48]

Governance und Rollen

Schulen benötigen eine leichtgewichtige, aber klare Governance:

Steuergruppe
Schulleitung, eine Lehrkraft je Fachbereich, IT/Datenschutz, eine Schüler- und eine Elternvertretung. Auftrag: Ziele priorisieren, Meilensteine setzen, Leitplanken beschließen, Evaluation sichern.
Fachgruppen
Aufgabenqualität, Kriterienraster, Beispiel-/Gegenbeispielsammlungen, aiMOOC-Kurationslisten, fachspezifische Prompt-Bausteine.
IT & Datenschutz
Infrastruktur (lokal/online), Rechte- und Rollensystem, Datensparsamkeit, Speicherfristen, Notfall- und Supportprozesse.
Fortbildung
Micro-Module für Feedback-Literacy, KI-Leitplanken, Unterrichtsdesign und Hospitationskultur; Peer-Coaching.
Lernende
Lernjournal führen, Rückmeldungen umsetzen, Belege sichern, Vertrauensstufen erwerben (Tablet-/KI-Führerschein).

90-Tage-Roadmap (Pilot bis Verankerung)

Phase Zeitraum Fokus Ergebnisse
0. Vorbereitung Woche −2 bis 0 Leitbild schärfen, Steuergruppe einsetzen, Datenschutz klären, zwei Fächer wählen Beschlusspapier, DPIA-Check, Auswahl Pilotklassen
1. Pilot Wochen 1–4 Zwei Sequenzen à 2–3 Unterrichtsstunden pro Fach mit FELIX/FIX (aiMOOC, Peer-Karte, KI-Impuls, Xpert-Konferenz) Erste Artefakte, funktionierende Lernjournale, Kurzfeedback der Beteiligten
2. Ausweitung Wochen 5–8 Drittes Fach; Mentorenprogramm minimal starten; Vorlagen konsolidieren Mentorenslots (10–15 Min), Vorlagenpaket v1
3. Verankerung Wochen 9–12 Curriculare Verortung, Hospitationszirkel, Elternkommunikation, Fortbildungsmodul „Feedback-Literacy“ Schulweite Mindeststandards, Terminplan Hospitation, Info-Kit für Eltern

Unterrichtsdesign-Blueprints (45/90 Minuten)

45-Minuten-Takt (z. B. Deutsch)
Einstieg 5′ Ziel/Kriterium mit Beispiel; aiMOOC-Aufgabe 15′ mit Mikrohints und Mini-Revision; Peer-Feedback 10′ (1 Kriterium, 1 Beleg, 1 Schritt); KI-Impuls 8′ (zwei Stärken, ein Schritt, Leitfrage); Xpert-Hinweis 5′; Journal-Eintrag 2′.
90-Minuten-Takt (z. B. Mathematik/NaWi)
Diagnose 10′; aiMOOC-Pfad 20′; Peer-Runde 15′; Mentoring-Slots 2×12′ parallel; KI-Impuls 10′; Xpert-Konferenz 10′; Transferaufgabe 10′; Journal 3′.

aiMOOC-Produktion und Kuration

Ein aiMOOC bündelt Ziel, Kriterien, Aufgabenprogression, Beispiele und Mikrohints.

Produktions-Workflow
Lernziel/Kriterium formulieren → Beispiel/Gegenbeispiel erstellen → Aufgaben in 3 Niveaustufen mit eingebetteten Checks → Mikrohints definieren (max. 2 je Aufgabe) → Journal-Prompts einbauen → Veröffentlichung auf MOOCit.de/aiMOOC.org.
Qualitätscheck (Kompaktheuristik)
  1. Kriterium zuerst
  2. ein Beleg pro Beispiel
  3. zwei Mikrohints maximal
  4. ein nächster Schritt
  5. Journal-Slot vorhanden.
Kuration
Fachgruppe pflegt eine Liste geprüfter aiMOOCs (Thema, Stufe, Kriterienbezug, Dauer, Barrierefreiheitsstatus).

Vertrauensstufen und Führerscheine

Die Nutzung leistungsfähiger KI-Funktionen erfolgt stufenweise. Nachweis erfolgt über kurze, praktische Prüfungen.

Stufe Freigaben (Beispiele) Nachweis
0 Basis Lesen/Nutzen von aiMOOCs, Mikrohints, Journalführung Tablet-Führerschein: sichere Bedienung, Urheberrecht, Datenminimierung
1 KI-Light Formale Checks (Gliederung, Quellenformate), neutrale Hinweise ohne Lösungen KI-Führerschein Teil A: „Kennzeichne KI-Hinweise, belege Umsetzungen“
2 KI-Fokus Kriteriennahe Impulse (2 Stärken, 1 Schritt, 1 Leitfrage), Minimal-/Gegenbeispiele KI-Führerschein Teil B: „Arbeite 3 Hinweise in Revisionen ein“
3 KI-Plus Vergleichsaufgaben, Transfervorschläge, Selbstcheck-Generator Portfolio-Nachweis: drei vollständige Zyklen inkl. Transfer

Datenschutz, Sicherheit, Barrierefreiheit

Datenschutz & DPIA
Datenminimierung (Textauszüge statt Volltexte), Pseudonymisierung, klare Speicherfristen, Protokolltransparenz, lokale Alternativen bei sensiblen Inhalten.
Sicherheit
Rollenrechte, Logging, Notfallabläufe (Abschalten einzelner Funktionen), jährlicher Technik-Check.
Barrierefreiheit
Alternativformate (Audio, große Schrift), einfache Sprache, Tastaturbedienbarkeit, Farbkodierungen mit ausreichendem Kontrast, Medienarme Alternativen für leistungsschwache Netze.

Fortbildungscurriculum für Kollegium

Modul A Feedback-Grundlagen
Ziel/Kriterium, Feed Up/Back/Forward, Kurzrubriken; Mikro-Design-Sprints.
Modul B Aufgabenqualität
Beispiel-Gegenbeispiel, Progression, kognitive Last steuern.
Modul C Peer & Mentoring
Satzstarter, Belegpflicht, 10–15-Min-Mentorings, Protokolle.
Modul D KI in FELIX
Prompt-Bausteine, Kennzeichnung, Mensch-im-Loop, Vertrauensstufen.
Modul E Hospitationskultur
Beobachtungskarten, kollegiale Kurzfeedbacks, Follow-up.

Micro-Curriculum für Lernende: Feedback-Literacy

Vier Kurzlektionen à 20–30 Minuten, fächerübergreifend:

L1 Kriterien sehen lernen
Beispiel/Gegenbeispiel markieren; „Woran erkennt man Qualität?“
L2 Ein Beleg – ein Schritt
Evidenzformeln („Ich sehe Kriterium X belegt in …“), Priorisierung.
L3 Journal-Routine
Ziel – Hinweis – Aktion – Evidenz – Reflexion; zwei Stärken, ein Schritt.
L4 KI kompetent nutzen
Kennzeichnung, Datensparsamkeit, strukturiertes Prompten, Revision belegen.

Kommunikationsplan (Innen/Außen)

Kollegium
Monatsbrief „FELIX-Praxis“ mit Beispielen; Hospitationskalender; FAQ.
Lernende
Startbrief „So funktioniert Feedback hier“; Vertragsfolie: „Wir geben wenige, aber präzise Hinweise – du änderst sichtbar und belegst.“
Eltern/Öffentlichkeit
Informationsabend; Einseiter mit Leitprinzipien; Beispielseite aus dem Lernjournal; Datenschutz-Hinweise; Nutzenargumente (Transparenz, Nachvollziehbarkeit, Teilhabe).

Qualitätsindikatoren und Monitoring

Qualität wird über Spuren, nicht über zusätzliche Tests sichtbar. Minimal-Dashboard pro Klasse:

Indikatoren
Anteil Stunden mit transparenter Kriteriennennung; Anteil Produkte mit Journal-Eintrag; mittlere Zeit bis zur Umsetzung eines nächsten Schritts; Verteilung der Feedback-Quellen (F/E/L/I/X); Anzahl dokumentierter Transfers pro Einheit.
Erhebung
Stichproben aus Journals (5–8 pro Klasse/Monat), Kurzbefragung 3 Fragen („Wusste ich das Ziel? Was habe ich geändert? Woran sehe ich Fortschritt?“), Hospitationen mit Kurzcheck.
Auswertung
Monatliche 30-Min-Runde je Fachgruppe; ein Beschluss – eine Änderung für den kommenden Monat.

Beispiel-Blueprints je Fach

Deutsch (Argumentierendes Schreiben, 2×45 Min)

Tag 1: Ziel/Kriterium „Behauptung – Begründung – Beleg – Bezug“; aiMOOC-Aufgabenfolge mit Mikrohints; Mini-Revision; Peer-Feedback „1 Kriterium – 1 Beleg – 1 Schritt“; Journal. Tag 2: Mentoring-Slots zu Kohärenz; KI-Impuls mit Gegenbeispiel; Xpert-Konferenz (5′/Team) mit Transferauftrag „Gleiches Kriterium, neuer Textausschnitt“; Journal-Reflexion.

Mathematik (Quadratische Funktionen, 90 Min)

Diagnose-Item; aiMOOC-Fehlermuster (Scheitel/Normalform); Peer-Check „Rechenweg belegen“; Mentoring zu Umformungen; KI-Impuls „Vergleich zweier Lösungswege“; Xpert-Fokus auf Strategie; Transfer „Parameter-Variation“.

NaWi (Daten und Messfehler, 45 Min)

Ziel/Kriterium „Plausible Messreihe, Fehlerquellen, Visualisierung“; aiMOOC-Checkliste; Peer-Poster-Review mit Belegpflicht; KI-Hinweis zu Achsen/Skala; Xpert-Auftrag „Gleiche Daten, andere Visualisierung – begründe Wahl“.

Vorlagenpaket (Kernauszüge)

Peer-Karte
Kriterium: ____ | Evidenzstelle: ____ | Ein nächster Schritt: ____ | Umsetzung bis: ____ | umgesetzt? ja/nein
Mentoring-Protokoll
Problem: ____ | Intervention 1 (Struktur): ____ | Intervention 2 (Leitfrage): ____ | Vereinbarte Änderung: ____ | Follow-up: ____
Xpert-Kurzrubrik (0–3)
Ziel/Kriterium benannt? 0–3 | Evidenz vorhanden? 0–3 | Nächster Schritt präzise? 0–3 | Revision sichtbar? 0–3 | Transfer geplant? 0–3
Prompt-Bausteine I (ohne Zeilenumbruch)
  1. Prüfe Kriterium X an Abschnitt Y; nenne 2 Stärken und 1 nächsten Schritt; stelle 1 Leitfrage – ohne Lösung vorwegzunehmen

Risiko-Register und Gegenmaßnahmen

Überfülle
Gegenmittel: Max. 1 Schritt; harte Längenbegrenzung; Priorisierungsmatrix.
Rollenunschärfe
Gegenmittel: Rollenkarten; Protokollpflicht bei L; Kennzeichnung von I.
Datenrisiko
Gegenmittel: Pseudonyme, Offlinemodus, kurze Retention, Opt-out-Pfad.
Ungleichheit
Gegenmittel: Differenzierte Zugänge, zusätzliche Zeitfenster, analoge Alternativen.

Ressourcen und Aufwand

Startaufwand konzentriert sich auf drei Bereiche: Aufgabenqualität (einmalig je Fach zwei Beispiel-Sequenzen mit Kriterienraster), Vorlagen (Peer-Karte, Journal, Mentoring-Protokoll, Xpert-Rubrik) und Fortbildung (4×45-Min-Micro-Module). Laufend sinkt der Korrekturaufwand durch Verlagerung auf Mikrohints, fokussierte Peer-Beiträge und 5-Min-Xpert-Konferenzen; die Lehrkraft investiert stärker in Aufgabendesign und Priorisierung, gewinnt jedoch Zeit durch weniger „Vollkorrekturen“ bei höherer Lernwirksamkeit.[49][50]

Gerechtigkeit und Teilhabe

FELIX/FIX stärkt Teilhabe, wenn drei Bedingungen aktiv verfolgt werden: Barrierearme Aufgabenformate und Alternativen; transparente Kriterien in einfacher Sprache mit Beispielen; dokumentierte Revisionen als sichtbare Fortschrittsspur statt alleiniger Produktbewertung. Diese Bedingungen unterstützen insbesondere Lernende mit Sprachbedarfen, mit geringem Vorwissen oder mit wenig häuslicher Unterstützung – denn sie machen Anforderungen sichtbar und Wege dorthin machbar.

Abschließender Korridor für die Schulentwicklung

Nach 90 Tagen Pilotierung ist das Ziel eine schulweite Minimalpraxis: Jede Lernsequenz beginnt mit Ziel/Kriterium und endet mit dokumentierter Revision; jede Klasse nutzt zumindest FIX in eng getakteten Schleifen; Peer- und Mentorenformate wachsen stufenweise; KI-Impulse sind gekennzeichnet, kriteriennah und in Mensch-im-Loop-Routinen eingebettet. Von hier aus skaliert die Schule über Curriculumanpassung, Hospitation und Vorlagenpflege. Damit wird Feedback vom sporadischen Ereignis zur verlässlichen Kultur – transparent, gerecht und lernwirksam.









Teil IV: Varianten, Risiken, Qualitätssicherung

Varianten und Anpassungen

FELIX ist ein architektonisches Modell und daher in unterschiedlichen Kontexten adaptierbar, ohne seine Logik zu verlieren. Fachliche Varianten betreffen vor allem die Art der Kriterien und der natürlichen Rückmeldepunkte. In sprachlichen Fächern rücken Textqualität, Argumentationslogik, Kohärenz und Stil in den Mittelpunkt; Rückmeldungen arbeiten mit markierten Beispiel- und Gegenbeispielpassagen, mit Fokus auf Belegführung und Überarbeitungsschritten im Lauftext. In MINT-Fächern sind Fehlerkategorien, Rechenwege, Modellannahmen, Messprotokolle und Visualisierungen leitend; hier bieten sich strukturierte Fehleranalysen, Minimal- und Gegenbeispiele, sowie kurze Format-Checks (Einheiten, Achsenskalierung) an. In den Künsten und in Projektfächern dominieren Prozessfeedback, Kriterien zu Komposition bzw. Gestaltung, iteratives Prototyping und Transferaufträge, die das Kriterium in einen neuen Ausdruckskontext setzen. Altersvarianten betreffen den Grad der Anleitung: In der Primarstufe sichern Satzstarter, enge Zeitfenster und sichtbare Belegkarten die Dialogqualität; in der Sekundarstufe wachsen Autonomie und fachliche Tiefe, Peer-Dialoge werden stärker kriteriengeleitet, Mentoring kann als Schüler-Expert:innen-Programm institutionalisiert werden.[51][52]

Organisationsvarianten ergeben sich aus Infrastruktur und Datenschutz. Wo stabile Online-Verbindungen, Single-Sign-on und schulische Cloud-Dienste verfügbar sind, können aiMOOCs, kollaborative Dokumente und KI-Begleiter nahtlos eingebunden werden. Wo dies nicht gegeben ist, bleibt die Logik identisch, die Umsetzung aber medienärmer: aiMOOCs werden als lokales Paket bereitgestellt, Mikrohints erscheinen in gedruckten Checkkarten, Peer- und Mentorenarbeit wird analog protokolliert, KI-Impulse werden in Offlinelösungen oder mit starker Datensparsamkeit genutzt. Entscheidender als das Tool ist die Routine: Ziel/Kriterium sichtbar, kurzer Rückmeldepunkt, ein priorisierter nächster Schritt, dokumentierte Mini-Revision. Diese Sequenz bleibt unabhängig von Fach, Jahrgang und Medienausstattung gültig.[53][54]

Risiken und Gegenmaßnahmen

Mehrere wiederkehrende Risiken lassen sich in Routinen übersetzen. Überabhängigkeit von KI führt zu passiven Lernhaltungen; Gegenmaßnahme ist das Mensch-im-Loop-Prinzip (Lehrkraft priorisiert, validiert und rahmt kritische Punkte) sowie die Verpflichtung zur sichtbaren Revision mit Beleg im Lernjournal. Kognitive Überlastung entsteht durch überlange, unpriorisierte Hinweise; Gegenmaßnahme sind knappe, kriterienfokussierte Impulse und die Heuristik „ein nächster Schritt“ pro Zyklus.[55] Motivationale Kosten entstehen, wenn Feedback als Kontrolle erlebt wird; die Gegenstrategie ist eine Tonalität, die Autonomie stützt, Kompetenz sichtbar macht und Zugehörigkeit respektiert, sowie Wahlräume bei der Reihenfolge von Schritten.[56] Ungleichheit verstärkt sich, wenn Vorerfahrungen, Sprachkenntnisse oder häusliche Unterstützung stark variieren; Gegenmaßnahmen sind barrierearme Formate, klare Sprache, Alternativwege (Audio, große Schrift, medienarme Varianten), Zusatzzeitfenster und die bewusste Trennung von Würdigung und Diagnose. Datenschutz- und Fairnessrisiken adressiert die Schule über Datensparsamkeit, Pseudonymisierung, klare Speicherfristen, Rollenrechte und ein gestuftes Freigabesystem (Vertrauensstufen) für sensible KI-Funktionen.[57]

Ein häufiges Missverständnis ist der Glaube, mehr Feedback sei automatisch besser. Die Forschung zeigt, dass Qualität, Zeitpunkt und Einbettung entscheidend sind: Zielklarheit, Bezug zu beobachtbaren Merkmalen, Spezifität, Zeitnähe und Handlungsleitung – und vor allem die anschließende Überarbeitung – bestimmen die Wirkung.[58][59] FELIX operationalisiert genau diese fünf Merkmale in einem wiederkehrenden Rhythmus.

Qualitätssicherung als Routine

Qualitätssicherung ist bei FELIX kein Sonderprogramm, sondern Teil der Alltagsarchitektur. Drei Bausteine tragen: Hospitationen im Kurzformat, Dokumentationsspuren und kollegiale Auswertungsschleifen. Kurz-Hospitationen mit Beobachtungskarten fokussieren auf sichtbare Ziele/Kriterien, auf den Takt der Rückmeldeschleifen und auf die Evidenz dokumentierter Revisionen. Dokumentationsspuren im Lernjournal – Ziel, Hinweis, Aktion, Evidenz, Reflexion – dienen als minimalinvasive Nachweise, die ohne Zusatzbelastung für Lernende entstehen und für Lehrkräfte, Mentor:innen und Peers anschlussfähig sind. Monatliche Fachgruppenrunden nutzen kleine Stichproben aus Journals und zwei bis drei Artefakte pro Klasse, um einen einzigen Verbesserungsbeschluss zu fassen. Diese Form des Micro-Monitorings macht Fortschritt sichtbar, ohne Unterricht zu überfrachten, und fördert zugleich Feedback-Literacy im Kollegium.[60][61]

Ein zusätzlicher Baustein ist die Rubrik-Kalibrierung: In kurzen Design-Sprints gleichen Fachgruppen Beispiel- und Gegenbeispielartefakte mit einer Kurzrubrik ab, um die Sprache der Kriterien zu schärfen und Urteilsdrift zu reduzieren. Diese Kalibrierung senkt den späteren Kommentieraufwand, weil die gemeinsame Bezugsbasis robust ist und Rückmeldungen sich an explizit geteilten Qualitätsmerkmalen orientieren.[62]

FIX als Übergangs- und Notfallmodus

FIX – die Kurzform ohne E und L – ist nicht nur ein „Sparprogramm“, sondern ein geordneter Übergangsmodus, wenn Zeit, Personal oder Strukturen fehlen. In FIX bleiben die Wirkprinzipien erhalten: Basisklärung und Sofort-Rückmeldung (F), ein fokussierter KI-Impuls (I) und die gewichtende, beratungsoffene Lehrkraft (X). Schulen nutzen FIX, um die Logik zu etablieren und Peer- sowie Mentorenformate schrittweise aufzubauen. Wichtig ist die konsequente Journalführung, damit auch im Kurzmodus jede Rückmeldung in eine beobachtbare Veränderung überführt wird.


Teil V: Vorlagen, Glossar, Literatur

Vorlagen (ausformulierte Mustertexte)

Peer-Feedback-Karte (ein Kriterium – ein Beleg – ein Schritt). Kriterium (Fokus): [z. B. „Begründung stützt die Behauptung mit überprüfbaren Belegen“]. Evidenz (wo genau im Produkt sehe ich das Kriterium erfüllt oder verfehlt?): [Zitat/Zeilenangabe/Abschnitt]. Ein priorisierter nächster Schritt (konkret, in 10–15 Minuten umsetzbar, ohne Lösung vorwegzunehmen): [z. B. „Ergänze nach Satz 3 einen Beleg aus Quelle A und erkläre in einem Satz den Zusammenhang zur Behauptung“]. Umsetzung bis: [Zeitpunkt]. Journalnotiz: [„Geändert: …; warum: …; Evidenz: …“]. Kompaktregel ohne Zeilenumbruch:

  1. ein Kriterium
  2. ein Beleg
  3. ein Schritt
  4. sofortige Umsetzung.

Mentoring-Protokoll (Problem – Intervention – Wirkung – Follow-up). Problemfokus in der ZPD: [z. B. „Sprung zwischen Beleg und Schlussfolgerung“]. Intervention 1 (Struktur): [Template/Gliederung]. Intervention 2 (Leitfrage): [„Wie führt der Beleg genau zur Schlussfolgerung?“]. Vereinbarte Änderung (eine): [„Beleg-Satz ergänzen und verknüpfenden Satz formulieren“]. Follow-up (Zeitpunkt/Belegform): [„Journal-Eintrag und markierte Änderung“]. Rollenklarheit: Scaffolding statt Lösungsvorwegnahme.[63][64]

Xpert-Kurzkonferenz (5 Minuten, meta-orientiert). Diagnose aus Journalspuren: [kurze Zusammenfassung]. Strategischer Fokus: [eine Stärke, ein Entwicklungsfeld]. Empfehlung (ein Transferauftrag, der dasselbe Kriterium in neuem Kontext prüft): [z. B. „Formuliere die Begründung zu Abschnitt B nach demselben Muster“]. Frist und Evidenzform: [„bis …; markierte Änderung im Journal“]. Leitprinzip ohne Zeilenumbruch:

  1. Diagnose aus Spuren
  2. ein strategischer Fokus
  3. ein Transferauftrag
  4. klare Frist/Evidenz.[65]

Lernjournal-Seite (eine Zeile pro Zyklus). Ziel/Kriterium: […]; Hinweis (Quelle F/E/L/I/X): […]; Aktion (konkrete Änderung): […]; Evidenz (wo ist die Änderung sichtbar?): […]; Reflexion (Was habe ich gelernt? Was mache ich als Nächstes?): […][66]

Prompt-Bausteine für I (KI-Impulse, ohne Lösungsvorwegnahme). Ohne Zeilenumbrüche:

  1. Prüfe Kriterium X an Abschnitt Y; nenne 2 Stärken und 1 nächsten Schritt; stelle 1 Leitfrage – ohne die Lösung vorwegzunehmen
  2. Liefere ein Minimal- und ein Gegenbeispiel für das Konzept Z; markiere, welche Eigenschaft das Kriterium erfüllt/verfehlt
  3. Prüfe die Kohärenz zwischen Beleg A und Schlussfolgerung B; schlage genau 1 Formulierung vor, die die Brücke verstärkt – ohne inhaltlich neu zu argumentieren.[67]

Glossar (ausgewählte Kernbegriffe)

Formative Rückmeldung. Prozessbegleitende, kriterienorientierte Rückmeldung mit dem Ziel, die nächste Verbesserungshandlung zu ermöglichen; sie ist zielklar, spezifisch, zeitnah und handlungsleitend und mündet in eine sichtbare Überarbeitung.[68] Feedback-Literacy. Fähigkeit von Lernenden (und Lehrenden), Rückmeldungen zu verstehen, zu bewerten, in Handlungen zu übersetzen und die Wirkung der Handlung zu prüfen; umfasst Kriteriensensibilität, Evidenzorientierung und Priorisierung.[69] Scaffolding. Zeitweilige, strukturierende Unterstützung in der Zone der nächsten Entwicklung; Hilfe wird mit wachsender Kompetenz schrittweise reduziert.[70] aiMOOC. Offener, KI-gestützter Lernkurs mit integrierten Interaktionen und Sofort-Rückmeldungen, der adaptives Lernen und Mehrfachdifferenzierung ermöglicht und als Basisstufe von FELIX dient.[71][72] Vertrauensstufen. Kompetenzbasiertes Zugangsmodell zu KI-Funktionen; schrittweise Freischaltung je nach nachgewiesener Feedback-Kompetenz und Medienverantwortung (z. B. Tablet-/KI-Führerschein).[73] Feed Up / Feed Back / Feed Forward. Zielklärung, Standortbestimmung und nächster Schritt als Dreischritt wirksamer Rückmeldung; Kernheuristik der FELIX-Architektur.[74] Kognitive Belastung. Begrenzte Arbeitsgedächtniskapazität, die durch priorisierte, kurze, kriteriennahe Hinweise geschont und für lernrelevante Verarbeitung genutzt werden sollte.[75]

Literatur und weiterführende Quellen

Die folgenden Werke bilden die theoretische Grundlage des Modells und seiner Umsetzung in aiMOOC-basierten Lernumgebungen, Peer- und Mentorenformaten sowie KI-gestützten Rückmelderoutinen:

  1. Black, P.; Wiliam, D. (1998): Assessment and Classroom Learning. Assessment in Education, 5(1), 7–74.
  2. Hattie, J.; Timperley, H. (2007): The Power of Feedback. Review of Educational Research, 77(1), 81–112.
  3. Shute, V. J. (2008): Focus on Formative Feedback. Review of Educational Research, 78(1), 153–189.
  4. Carless, D.; Boud, D. (2018): The development of student feedback literacy. Assessment & Evaluation in Higher Education, 43(8), 1315–1325.
  5. Deci, E. L.; Ryan, R. M. (2000): The “What” and “Why” of Goal Pursuits. Psychological Inquiry, 11(4), 227–268.
  6. Sweller, J. (1988): Cognitive load during problem solving. Cognitive Science, 12(2), 257–285.
  7. Glanz, Udo (2019): MOOCs selbst erstellen – P4P MOOCs in Schule, Ausbildung, Studium. Glanz-Verlag.
  8. Glanz, Udo (2025): KI-Bildungsbuffet – aiMOOCs in der Praxis. Glanz-Verlag.
  9. Black, P.; Wiliam, D. (1998): Assessment and Classroom Learning. Assessment in Education, 5(1), 7–74.
  10. Hattie, J.; Timperley, H. (2007): The Power of Feedback. Review of Educational Research, 77(1), 81–112.
  11. Shute, V. J. (2008): Focus on Formative Feedback. Review of Educational Research, 78(1), 153–189.
  12. Shute, V. J. (2008): Focus on Formative Feedback. Review of Educational Research, 78(1), 153–189.
  13. Black, P.; Wiliam, D. (1998): Assessment and Classroom Learning. Assessment in Education, 5(1), 7–74.
  14. Vygotsky, L. S. (1978): Mind in Society. Harvard University Press.
  15. Deci, E. L.; Ryan, R. M. (2000): The “What” and “Why” of Goal Pursuits. Psychological Inquiry, 11(4), 227–268.
  16. Zimmerman, B. J. (2002): Becoming a Self-Regulated Learner. Theory Into Practice, 41(2), 64–70.
  17. Sweller, J. (1988): Cognitive load during problem solving. Cognitive Science, 12(2), 257–285.
  18. Kluger, A. N.; DeNisi, A. (1996): The effects of feedback interventions on performance. Psychological Bulletin, 119(2), 254–284.
  19. Hattie, J.; Timperley, H. (2007): The Power of Feedback. Review of Educational Research, 77(1), 81–112.
  20. Shute, V. J. (2008): Focus on Formative Feedback. Review of Educational Research, 78(1), 153–189.
  21. Glanz, Udo (2019): MOOCs selbst erstellen – P4P MOOCs in Schule, Ausbildung, Studium. Glanz-Verlag.
  22. Glanz, Udo (2025): KI-Bildungsbuffet – aiMOOCs in der Praxis. Glanz-Verlag.
  23. Sweller, J. (1988): Cognitive load during problem solving. Cognitive Science, 12(2), 257–285.
  24. Zimmerman, B. J. (2002): Becoming a Self-Regulated Learner. Theory Into Practice, 41(2), 64–70.
  25. Hattie, J.; Timperley, H. (2007): The Power of Feedback. Review of Educational Research, 77(1), 81–112.
  26. Carless, D.; Boud, D. (2018): The development of student feedback literacy. Assessment & Evaluation in Higher Education, 43(8), 1315–1325.
  27. Topping, K. J. (1998): Peer assessment between students in colleges and universities. Review of Educational Research, 68(3), 249–276.
  28. Vygotsky, L. S. (1978): Mind in Society. Harvard University Press.
  29. Shute, V. J. (2008): Focus on Formative Feedback. Review of Educational Research, 78(1), 153–189.
  30. Hattie, J.; Timperley, H. (2007): The Power of Feedback. Review of Educational Research, 77(1), 81–112.
  31. Glanz, Udo (2024): Vertrauensstufen mit KI-Einsatz in der Bildung. Glanz-Verlag.
  32. Shute, V. J. (2008): Focus on Formative Feedback. Review of Educational Research, 78(1), 153–189.
  33. Carless, D.; Boud, D. (2018): The development of student feedback literacy. Assessment & Evaluation in Higher Education, 43(8), 1315–1325.
  34. Hattie, J.; Timperley, H. (2007): The Power of Feedback. Review of Educational Research, 77(1), 81–112.
  35. Shute, V. J. (2008): Focus on Formative Feedback. Review of Educational Research, 78(1), 153–189.
  36. Glanz, Udo (2019): MOOCs selbst erstellen – P4P MOOCs in Schule, Ausbildung, Studium. Glanz-Verlag.
  37. Glanz, Udo (2025): KI-Bildungsbuffet – aiMOOCs in der Praxis. Glanz-Verlag.
  38. Sweller, J. (1988): Cognitive load during problem solving. Cognitive Science, 12(2), 257–285.
  39. Topping, K. J. (1998): Peer assessment between students in colleges and universities. Review of Educational Research, 68(3), 249–276.
  40. Carless, D.; Boud, D. (2018): The development of student feedback literacy. Assessment & Evaluation in Higher Education, 43(8), 1315–1325.
  41. Vygotsky, L. S. (1978): Mind in Society. Harvard University Press.
  42. Glanz, Udo (2024): KI-Medienmentoren – Eine Einführung in Medienbildung mit KI. Glanz-Verlag.
  43. Shute, V. J. (2008): Focus on Formative Feedback. Review of Educational Research, 78(1), 153–189.
  44. Glanz, Udo (2024): Vertrauensstufen mit KI-Einsatz in der Bildung. Glanz-Verlag.
  45. Hattie, J.; Timperley, H. (2007): The Power of Feedback. Review of Educational Research, 77(1), 81–112.
  46. Hattie, J.; Timperley, H. (2007)
  47. Shute, V. J. (2008)
  48. Glanz, U. (2024): Vertrauensstufen mit KI-Einsatz in der Bildung
  49. Black, P.; Wiliam, D. (1998)
  50. Hattie, J.; Timperley, H. (2007)
  51. Black, P.; Wiliam, D. (1998): Assessment and Classroom Learning. Assessment in Education, 5(1), 7–74.
  52. Topping, K. J. (1998): Peer assessment between students in colleges and universities. Review of Educational Research, 68(3), 249–276.
  53. Shute, V. J. (2008): Focus on Formative Feedback. Review of Educational Research, 78(1), 153–189.
  54. Sweller, J. (1988): Cognitive load during problem solving. Cognitive Science, 12(2), 257–285.
  55. Sweller, J. (1988)
  56. Deci, E. L.; Ryan, R. M. (2000): The “What” and “Why” of Goal Pursuits. Psychological Inquiry, 11(4), 227–268.
  57. Glanz, Udo (2024): Vertrauensstufen mit KI-Einsatz in der Bildung. Glanz-Verlag.
  58. Hattie, J.; Timperley, H. (2007): The Power of Feedback. Review of Educational Research, 77(1), 81–112.
  59. Shute, V. J. (2008)
  60. Black, P.; Wiliam, D. (1998)
  61. Carless, D.; Boud, D. (2018): The development of student feedback literacy. Assessment & Evaluation in Higher Education, 43(8), 1315–1325.
  62. Hattie, J.; Timperley, H. (2007)
  63. Vygotsky, L. S. (1978): Mind in Society. Harvard University Press.
  64. Glanz, Udo (2024): KI-Medienmentoren – Eine Einführung in Medienbildung mit KI. Glanz-Verlag.
  65. Hattie, J.; Timperley, H. (2007)
  66. Zimmerman, B. J. (2002): Becoming a Self-Regulated Learner. Theory Into Practice, 41(2), 64–70.
  67. Shute, V. J. (2008)
  68. Shute, V. J. (2008)
  69. Carless, D.; Boud, D. (2018)
  70. Vygotsky, L. S. (1978)
  71. Glanz, Udo (2019)
  72. Glanz, Udo (2025)
  73. Glanz, Udo (2024)
  74. Hattie, J.; Timperley, H. (2007)
  75. Sweller, J. (1988)

Schlussbild: FELIX als schulischer Arbeitsrhythmus

FELIX ist kein einmaliges Projekt, sondern ein schulischer Arbeitsrhythmus: Ziele und Kriterien sichtbar machen; kurze, kriterienfokussierte Rückmeldungen geben; genau einen nächsten Schritt priorisieren; die Änderung zeitnah und sichtbar umsetzen; den Transfer in eine neue Situation planen. Die KI verstärkt diesen Rhythmus, indem sie Diagnosen beschleunigt und Beispiele variiert, ohne pädagogische Entscheidungen zu ersetzen. FIX sichert dieselben Wirkprinzipien unter engen Ressourcen und dient als Brücke, bis Evaluation und Mentoring aufgebaut sind. So wird Feedback vom sporadischen Ereignis zur verlässlichen Kultur – transparent, gerecht und lernwirksam.







VERSION 2





FELIX


FELIX – Feedbackkultur mit KI

Der Name FELIX steht für ein zukunftsweisendes, fünfstufiges Modell der Feedbackkultur im schulischen Kontext. Die Buchstaben symbolisieren zentrale pädagogische Prinzipien und sind zugleich methodisch aufeinander abgestimmt. FELIX ist dabei nicht nur ein Akronym – der Name selbst stammt aus dem Lateinischen und bedeutet „der Glückliche“, „der Erfolgreiche“, „der Fruchtbare“. Dieses positive Bildungsbild steht sinnbildlich für eine Schule, in der Lernen durch Feedback gelingt: frei, partizipativ, unterstützend, intelligent und reflektiert.


Abbildung: FELIX kann FIX werden.



F – FREE LEARNING

Schüler:innen arbeiten selbstorganisiert mit individuell generierten aiMOOCs z.B. auf MOOCit.de oder aiMOOC.org. aiMOOCs sind Massive Open Online Courses (MOOCs), welche durch einen aiMOOC-GPT (eine komplexe Anweisung) von einer künstlichen Intelligenz (ai) für individuelle Bedürfnisse erstellt werden. Die Hauptbestandteile eines aiMOOCs sind Texte, Bilder, Videos, offene und interaktive Aufgaben, die von einer KI erstellt, von Experten geprüft und auf einem frei zugänglichen Kultur- und Bildungs-Wiki publiziert werden. Die interaktiven Aufgaben (Multiple Choice, Memory-Zuordnung, Kreuzworträtsel usw. beinhalten das erste Feedback für die Lernenden, ohne dass diese mit der KI direkt in Kontakt kommen. Das aiMOOC-Bildungsnetz ermöglicht adaptives Lernen mit Selbstdifferenzierung bzw. Mehrfachdifferenzierung z.B. für das Blended Learning oder Flipped Classroom. Diese Online-Lernkurse sind die Arbeitsblätter der Zukunft: individuell, klimafreundlich, kostenlos! Lernende können z.B. Satzglieder mit einem Lernkurs nach ihren Interessen erlernen. Ein Lernkurs könnte heißen: "Satzglieder mit dem FC Bayern lernen".[1][2]

E – EVALUATION

Die nächste Form des Feedbacks erfolgt im sozialen Lernraum durch das Peer-Feedback, also der Evaluation durch den Lernpartner. Peer-Feedback wird dabei nicht als beiläufige Unterstützung verstanden, sondern als strukturell verankertes Element kooperativen Lernens. Dieser Austausch fördert nicht nur fachliches Verständnis, sondern auch Kommunikationsfähigkeit, Verantwortungsübernahme und eine wertschätzende Feedbackkultur.

L – LEARNING MENTOR

Bei weiterführendem Unterstützungsbedarf kommen Lernmentor:innen ins Spiel – thematisch versierte Expert:innen aus der eigenen oder einer anderen Lerngruppe. Diese übernehmen eine begleitende Funktion, geben individuelle Impulse und stärken das soziale Gefüge. Das Prinzip „Lernen durch Lehren“ wird hier aktiv gelebt.[3]

I – INTERACTIVE FEEDBACK

Nun greift die KI aktiv ein: Über spezialisierte GPTs wie den Feedback-Schulaufgabe-GPT, einen KI-Companion (derzeit z.B. OpenAI / ChatGPT: "Study Mode", Google / Gemini: "Learning Coach", Khan Academy: Khanmigo) oder andere Intelligente Tutorielle Systeme (ITS) erhalten die Lernenden gezielte Impulse zur Weiterarbeit – ohne Lösungen vorzugeben. Dieses KI-Feedback kann individueller sein, wenn die Lernenden mehr von sich und ihrem Lernen Preis geben. Dies stellt noch eine große (Datenschutz-)Herausforderung im Einsatz der KI im Bildungssektor dar. Offline-Lösungen (GPT4ALL) sind eine noch nicht ganz so starke Alternative. Künftig übernehmen aber sicherlich diese AI-Companions die Rolle des interaktiven maschinellen Feedbacks dauerhaft: Sie dokumentieren Lernprozesse, personalisieren Feedback, erkennen Entwicklungspotenziale und fördern Motivation. Diese KI-basierte Ebene sollte durch ein abgestuftes Vertrauenssystem abgesichert werden. Direkter Kontakt zur Online-KI sollte erst stattfinden, wenn ein Tablet-Führerschein und ein KI-Führerschein bestanden wurde.[4]

HINWEIS: Die Stufen E – Evaluation und / oder L – Learning Mentor sind optional und können, wenn sie z.B. aktuell nicht vorhanden sind oder es dem Lernenden nicht angemessen erscheint, übersprungen werden; die Logik des Modells bleibt dadurch erhalten. Aus FELIX wird dann das 3-Schritt-Modell FIX. Der Begriff FIX ist in mehrfacher Hinsicht passend: Zum einen steht er im Sinne des englischen Wortes für „schnell“ – das Modell wird durch den Verzicht auf die Stufen Evaluation und Learning Mentor schlanker und kann zügiger umgesetzt werden. Zum anderen bedeutet „to fix“ auch „etwas beheben, reparieren oder festigen und verankern“ – genau das leistet das reduzierte Modell: Es ermöglicht zielgerichtetes, unmittelbares Feedback durch KI, wodurch Lernhindernisse schnell erkannt und bearbeitet werden können.

X – (E)XPERT

Als letzte Instanz bringt sich die Lehrkraft als Experte ein: nicht als Korrekturinstanz, sondern als reflektierende, beratende Expertin, die nach der KI-gestützten und kollegialen Vorarbeit gezielt unterstützt, moderiert und die Lernentwicklung gemeinsam mit dem Lernenden analysiert. Hier schließt sich der Kreis zu einem ganzheitlichen, menschlich fundierten Lernprozess. Nach dem Lernen ist vor dem Lernen: Die Lehrkraft empfiehlt eine weitere Vorgehensweise und unterstützt die Lernenden in ihrem individuellen Weg.


FELIX als Wegweiser für zukunftsfähige Feedbackkultur

FELIX ist mehr als ein technisches Modell – es ist eine pädagogische Vision: Lernen wird als lebendiger Prozess verstanden, der durch gezieltes Feedback strukturiert, gestützt und vertieft wird. Dabei verbindet FELIX moderne Technologien mit menschlicher Nähe, Eigenverantwortung mit Gemeinschaft und Struktur mit Offenheit.

Durch die Kombination von freiem Lernen (F), sozialer Evaluation (E), Lernmentorenschaft (L), intelligenter, individueller, interaktiver Rückmeldung (I) und reflektierter Expertise (X) entsteht ein System, das nicht nur Wissen vermittelt, sondern Kompetenzen aufbaut, Beziehungen stärkt und Lernfreude entfaltet.

FELIX gibt Schulen ein handlungsorientiertes Modell an die Hand, um die Potenziale von KI in der Bildung verantwortungsvoll und wirksam zu nutzen – als Fundament einer neuen Feedbackkultur, die Lernen zum Erfolg und Schüler:innen zu selbstwirksamen Gestalter:innen ihrer Bildungswege macht.





Abbildungen

Quellen und weiterführende Literatur

Die folgenden Werke bilden die inhaltliche und theoretische Grundlage für das dargestellte Konzept zu KI in der Schulkommunikation, aiMOOCs und KI-gestützter Feedbackkultur. Sie sind auf MOOCit.de frei zugänglich:

  1. Glanz, Udo (2019): MOOCs selbst erstellen – P4P MOOCs in Schule, Ausbildung, Studium, Glanz-Verlag. ISBN 978-3940320285.
  2. Glanz, Udo (2025): KI-Bildungsbuffet – aiMOOCs in der Praxis. Glanz-Verlag. ISBN 979-8307450833.
  3. Glanz, Udo (2024): KI-Medienmentoren – Eine Einführung in Medienbildung mit KI. Glanz-Verlag. ISBN 979-8305196504.
  4. Glanz, Udo (2024): Vertrauensstufen mit KI-Einsatz in der Bildung. Glanz-Verlag. ISBN 979-8305088038.