Explainable AI


Explainable AI
Einleitung
Explainable AI – kurz XAI – ist ein Bereich der Künstlichen Intelligenz, der sich mit der Nachvollziehbarkeit und Verständlichkeit von Entscheidungen und Vorhersagen durch Algorithmen beschäftigt. Da viele moderne KI-Modelle, insbesondere Neuronale Netze, als Black Boxes fungieren, besteht die Gefahr, dass ihre Entscheidungen nicht nachvollziehbar sind – selbst für Expertinnen und Experten.
Dieser MOOC erklärt, warum Erklärbarkeit in der KI wichtig ist, wie man sie erreichen kann und welche Methoden und Techniken es gibt, um Modelle transparenter zu machen. Du wirst lernen, welche Rolle Transparenz, Fairness, Bias und Vertrauen spielen – und wie man KI-Modelle so gestaltet, dass sie für Menschen verständlich bleiben.
Grundlagen der Explainable AI
Warum braucht KI Erklärbarkeit?
Viele KI-Systeme, vor allem solche, die auf Deep Learning basieren, liefern zwar beeindruckend genaue Ergebnisse – aber es bleibt oft unklar, wie diese Ergebnisse zustande kommen. Dies kann in kritischen Bereichen wie Medizin, Finanzen oder der Justiz problematisch sein.
- Transparenz schafft Vertrauen.
- Erklärbarkeit hilft bei der Fehleranalyse.
- Nutzerinnen und Nutzer müssen Entscheidungen nachvollziehen können.
- Gesetzliche Vorgaben wie die DSGVO fordern Erklärungen.
Black Box vs. White Box
KI-Modelle lassen sich in Bezug auf ihre Erklärbarkeit in zwei Kategorien einteilen:
- Black Box-Modelle: Komplexe Modelle wie Deep Neural Networks, deren innere Funktionsweise kaum transparent ist.
- White Box-Modelle: Einfachere Modelle wie Entscheidungsbäume oder lineare Regression, die leicht nachzuvollziehen sind.
Methoden der Erklärbarkeit
Es gibt verschiedene Methoden, um auch komplexe Modelle erklärbar zu machen:
- LIME (Local Interpretable Model-agnostic Explanations): Erklärt einzelne Vorhersagen durch lokale Approximationen.
- SHAP (SHapley Additive exPlanations): Bewertet die Bedeutung einzelner Eingabefaktoren.
- Saliency Maps: Visualisiert die Bedeutung einzelner Pixel oder Eingaben.
- Feature Importance: Misst, welche Merkmale die Vorhersagen beeinflussen.
- Gegenbeispiele: Zeigt minimal veränderte Eingaben, die zu anderen Ergebnissen führen.
Interaktive Aufgaben
Quiz: Teste Dein Wissen
Was ist das Ziel von Explainable AI? (Die Entscheidungen von KI-Systemen nachvollziehbar zu machen) (!Die Leistung von KI-Systemen zu verbessern) (!Die Rechenleistung von Computern zu erhöhen) (!Die Programmierung von KI zu vereinfachen)
Welche Modelle gelten als White Box? (Entscheidungsbäume) (!Neuronale Netze) (!Deep Learning Modelle) (!Support Vector Machines)
Was bedeutet der Begriff Black Box im Kontext von KI? (Die interne Funktionsweise ist nicht transparent) (!Die KI funktioniert nur im Dunkeln) (!Es handelt sich um Open-Source-Modelle) (!Die Daten sind verschlüsselt)
Welche Methode bewertet den Einfluss einzelner Merkmale auf das Modell? (SHAP) (!GAN) (!Backpropagation) (!Dropout)
Was ist LIME? (Eine Methode zur lokalen Modellapproximation) (!Ein neuronales Netz) (!Ein Cloud-Service) (!Eine Programmiersprache)
Warum ist Erklärbarkeit wichtig in der Medizin? (Weil Entscheidungen Leben betreffen) (!Weil Ärzte keine KI mögen) (!Weil Modelle dort nicht funktionieren) (!Weil Patientendaten öffentlich sind)
Was ist ein Vorteil erklärbarer Modelle? (Man kann Entscheidungen nachvollziehen) (!Sie sind immer genauer) (!Sie benötigen keine Daten) (!Sie sind schneller trainiert)
Was zeigen Saliency Maps? (Wichtige Bereiche der Eingabe für eine Entscheidung) (!Datenschutzverstöße) (!Trainingsverläufe) (!Modellmetriken)
Welche Rolle spielt die DSGVO für Explainable AI? (Sie fordert nachvollziehbare Entscheidungen) (!Sie schreibt neuronale Netze vor) (!Sie erlaubt keine KI in Europa) (!Sie verbietet Machine Learning)
Was versteht man unter Gegenbeispielen? (Veränderte Eingaben, die andere Vorhersagen erzeugen) (!Beispiele aus der Vergangenheit) (!Tests zur Performance) (!Fehlerhafte Datensätze)
Memory
| LIME | Lokale Erklärbarkeit |
| SHAP | Bedeutung von Merkmalen |
| Saliency Map | Visualisierung relevanter Eingaben |
| White Box | Transparente Modelle |
| Black Box | Nicht nachvollziehbare Modelle |
Drag and Drop
| Ordne die richtigen Begriffe zu. | Thema |
|---|---|
| Lokale Approximation | |
| Einflussfaktoren quantifizieren | |
| Visualisierung | |
| Transparente Modelle | |
| Komplexe, undurchsichtige Modelle |
Kreuzworträtsel
| LIME | Methode zur lokalen Erklärbarkeit |
| SHAP | Bewertet die Merkmalsbedeutung |
| Vertrauen | Ziel von Explainable AI |
| Transparenz | Gegenteil von Intransparenz |
| Fairness | Wichtiges ethisches Ziel der KI |
| Medizin | Anwendungsbereich mit hohen Anforderungen an Erklärbarkeit |
LearningApps
Lückentext
Offene Aufgaben
Leicht
- KI-Erklärung: Beschreibe mit eigenen Worten, was Explainable AI bedeutet.
- Begriffsdefinitionen: Erkläre die Begriffe LIME, SHAP und Saliency Map.
- Alltagseinsatz: Finde drei Beispiele, wo erklärbare KI im Alltag hilfreich wäre.
Standard
- Modellvergleich: Untersuche ein White Box- und ein Black Box-Modell anhand ihrer Erklärbarkeit.
- Erklärvideo: Produziere ein Video, in dem Du XAI anhand eines Beispiels erklärst.
- Kritische Reflexion: Diskutiere Vor- und Nachteile erklärbarer KI.
Schwer
- Eigenes XAI-Projekt: Entwickle ein Mini-KI-Modell mit erklärbarer Komponente.
- Interviews: Befrage Menschen zu ihrer Meinung über verständliche KI.
- Ethik-Debatte: Veranstalte eine Diskussion zum Thema „Brauchen wir immer erklärbare KI?“


Lernkontrolle
- Vertrauen in KI: Warum ist es wichtig, dass Menschen den Entscheidungen einer KI vertrauen können?
- Gesetze und Ethik: Wie beeinflussen rechtliche Rahmenbedingungen die Entwicklung von Explainable AI?
- Techniken der Erklärbarkeit: Wähle eine Methode (z. B. SHAP) und erkläre, wie sie funktioniert und wann sie sinnvoll ist.
- Konflikte zwischen Genauigkeit und Erklärbarkeit: Warum sind komplexe Modelle oft weniger erklärbar?
- XAI im Alltag: Welche Rolle spielt Explainable AI im autonomen Fahren?
OERs zum Thema
Links
Teilen - Diskussion - Bewerten
Schulfach+


aiMOOCs



aiMOOC Projekte


YouTube Music: THE MONKEY DANCE

Spotify: THE MONKEY DANCE

Apple Music: THE MONKEY DANCE

Amazon Music: THE MONKEY DANCE

The Monkey Dance SpreadShirtShop

|
|
|


Children for a better world >> Förderung der AI Fair-Image Challenge
Fair-Image wird von CHILDREN JUGEND HILFT! gefördert und ist mit der deutschlandweiten AI Fair-Image Challenge SIEGERPROJEKT 2025. Alle Infos zur Challenge hier >>. Infos zum Camp25 gibt es hier. Wenn auch Ihr Euch ehrenamtlich engagiert und noch finanzielle Unterstützung für Eurer Projekt braucht, dann stellt gerne einen Antrag bei JUGEND HILFT.
