Neuronalen Netzen

Version vom 11. Januar 2025, 11:47 Uhr von Glanz (Diskussion | Beiträge) (Die Seite wurde neu angelegt: „{{:Neuronale Netzwerke}}“)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)



Neuronalen Netzen


Einleitung


Neuronale Netzwerke sind ein zentraler Bestandteil der Künstlichen Intelligenz und Maschinelles Lernen. Sie orientieren sich an der Funktionsweise biologischer Nervensysteme und dienen dazu, komplexe Muster und Zusammenhänge in Daten zu erkennen. Dieser aiMOOC erklärt die Grundlagen, Strukturen und Anwendungen von neuronalen Netzwerken und bietet interaktive Übungen sowie offene Aufgaben, um das Thema praxisnah zu vertiefen.


Grundlagen neuronaler Netzwerke


Was ist ein neuronales Netzwerk?

Ein Neuronales Netzwerk ist ein Modell aus miteinander verbundenen künstlichen Neuronen, die Informationen verarbeiten. Es besteht aus:

  1. Eingabeschicht: Sie nimmt die Daten auf.
  2. Verborgene Schichten: Sie verarbeiten die Daten und erkennen Muster.
  3. Ausgabeschicht: Sie liefert die Ergebnisse.

Funktionsweise

Ein neuronales Netzwerk arbeitet in mehreren Schritten:

  1. Eingangsdaten werden in die Eingabeschicht eingespeist.
  2. Diese Daten werden gewichtet und in den Aktivierungsfunktionen der Verborgenen Schichten verarbeitet.
  3. Am Ende wird das Ergebnis durch die Ausgabeschicht weitergegeben.

Arten von neuronalen Netzwerken

Neuronale Netzwerke haben unterschiedliche Architekturen:

  1. Feedforward-Netzwerk: Daten fließen nur in eine Richtung.
  2. Rekurrentes Netzwerk: Daten können rückwärts fließen.
  3. Convolutional Neural Network (CNN): Spezialisiert auf Bildverarbeitung.
  4. Generative Adversarial Network (GAN): Erzeugt neue Daten wie Bilder.


Interaktive Aufgaben


Quiz: Teste Dein Wissen

Wie nennt man die Schicht, die Daten in ein neuronales Netzwerk einspeist? (Eingabeschicht) (!Ausgabeschicht) (!Verborgene Schicht) (!Trainingsschicht)

Welche Netzwerke sind speziell für die Bildverarbeitung geeignet? (Convolutional Neural Networks) (!Feedforward-Netzwerke) (!Rekurrente Netzwerke) (!Lineare Netzwerke)

Welche Funktion haben Aktivierungsfunktionen? (Sie entscheiden, ob ein Neuron "aktiviert" wird.) (!Sie speichern Daten.) (!Sie trainieren das Netzwerk.) (!Sie visualisieren Daten.)

Was ist das Ziel des Trainings eines neuronalen Netzwerks? (Das Minimieren des Fehlers.) (!Das Maximieren der Datenmenge.) (!Die Erstellung von mehr Neuronen.) (!Die Veränderung der Netzwerkstruktur.)

Welche Daten fließen durch rekurrente Netzwerke? (Daten können in beide Richtungen fließen.) (!Daten fließen nur vorwärts.) (!Daten werden zwischengespeichert.) (!Daten werden ignoriert.)

Was ist ein Generative Adversarial Network (GAN)? (Ein Netzwerk, das neue Daten generiert.) (!Ein Netzwerk zur Fehlerkorrektur.) (!Ein Netzwerk für lineare Regression.) (!Ein Netzwerk zur Textverarbeitung.)

Welche Schicht kommt nach der Eingabeschicht? (Verborgene Schicht) (!Ausgabeschicht) (!Datenbank) (!Aktivierungsschicht)

Welche Anwendung nutzen Convolutional Neural Networks (CNNs)? (Bildklassifikation) (!Sprachübersetzung) (!Textgenerierung) (!Zeitreihenanalyse)

Was bedeutet "Training" in neuronalen Netzwerken? (Anpassen der Gewichte.) (!Erstellen neuer Neuronen.) (!Visualisieren der Schichten.) (!Speichern der Daten.)

Welche Art von Netzwerk eignet sich für Zeitreihenanalysen? (Rekurrentes Netzwerk) (!Feedforward-Netzwerk) (!Convolutional Neural Network) (!Generative Adversarial Network)




Memory

Neuron Verarbeiten von Informationen
Eingabeschicht Aufnahme von Daten
Aktivierungsfunktion Entscheidung der Neuronaktivierung
CNN Bildverarbeitung
GAN Erzeugung neuer Daten





Kreuzworträtsel

NeuronalesNetzwerk Wie nennt man künstlich aufgebaute Systeme nach dem Vorbild des Gehirns?
Aktivierung Was entscheidet, ob ein Neuron Daten weitergibt?
CNN Welches Netzwerk wird für Bildanalysen verwendet?
GAN Wie heißt ein Netzwerk, das neue Bilder erzeugt?
Rekurrent Welche Netzwerke analysieren Zeitreihen?
Trainingsdaten Was benötigt ein Netzwerk, um Muster zu lernen?





LearningApps

Lückentext

Vervollständige den Text.

Neuronale Netzwerke bestehen aus

,

und einer

. Sie werden mit

trainiert, um Muster zu erkennen. Die

entscheidet, ob ein Neuron aktiv wird. Rekurrente Netzwerke analysieren

, während CNNs für die

genutzt werden.



Offene Aufgaben


Leicht

  1. Erstelle eine Definition für neuronale Netzwerke.
  2. Zeichne ein Schema eines neuronalen Netzwerks.
  3. Beschreibe in einfachen Worten die Funktionsweise von neuronalen Netzwerken.

Standard

  1. Vergleiche verschiedene Arten von neuronalen Netzwerken.
  2. Untersuche Anwendungen von CNNs in der Praxis.
  3. Finde Beispiele für GANs in der Bildgenerierung.

Schwer

  1. Programmiere ein einfaches neuronales Netzwerk mit Python.
  2. Analysiere Vor- und Nachteile von neuronalen Netzwerken.
  3. Entwickle ein eigenes Projekt basierend auf einem rekurrenten Netzwerk.




Text bearbeiten Bild einfügen Video einbetten Interaktive Aufgaben erstellen



Lernkontrolle

  1. Erkläre den Zusammenhang zwischen Aktivierungsfunktion und Lernprozess.
  2. Diskutiere ethische Fragen bei der Nutzung von neuronalen Netzwerken.
  3. Beschreibe mögliche Schwächen eines neuronalen Netzwerks.
  4. Vergleiche biologisches und künstliches Lernen.
  5. Erörtere die Zukunftsaussichten für neuronale Netzwerke.



OERs zum Thema


Medien

Links



Neuronalen Netzen




Einleitung

Willkommen zum aiMOOC Neuronales Netz! In diesem Kurs lernst Du, wie Künstliche Intelligenz mit künstlichen neuronalen Netzen arbeitet, welche Grundlagen wichtig sind und wie Verfahren wie Backpropagation, Gradientenabstieg oder Aktivierungsfunktionen funktionieren. Du erfährst, wie Deep Learning-Modelle wie Convolutional Neural Networks (CNN), Rekurrente neuronale Netze (RNN), LSTM und Transformer aufgebaut sind und wo sie in Bilderkennung, Spracherkennung, Übersetzung oder medizinischer Diagnostik eingesetzt werden.

Dieser aiMOOC liefert Dir Erklärtexte, interaktive Aufgaben, ein Quiz, ein Kreuzworträtsel, Memory und viele weiterführende Links. Du kannst die Inhalte in der Schule nutzen, zur Prüfungsvorbereitung oder für eigene Projekte.


Was ist ein neuronales Netz?

Ein neuronales Netz ist ein Rechenmodell, das grob an biologische Neuronen angelehnt ist. Es besteht aus Schichten (engl. Layers) mit vielen Knoten (Neuronen), die über Gewichte verbunden sind. Jede Verbindung trägt eine Zahl (Gewicht), die beeinflusst, wie stark ein Signal weitergegeben wird. Ein Bias verschiebt die Aktivierung. Die Ausgabe eines Neurons ergibt sich aus einer gewichteten Summe der Eingaben plus Bias, gefolgt von einer Aktivierungsfunktion wie Sigmoid, Tanh oder ReLU.


Historische Entwicklung

  1. McCulloch & Pitts (1943): Formales Neuron-Modell.
  2. Perceptron (1958): Frühes lernfähiges Modell.
  3. Backpropagation (1986): Effizientes Training mehrschichtiger Netze.
  4. CNN (1989–1998): Erfolge in Vision.
  5. Deep Learning (ab 2012): Leistungsdurchbruch dank GPU-Rechenleistung, großer Daten und besserer Optimierung.
  6. Transformer (2017): Attention ersetzt viele rekurrente Strukturen.


Mathematische Grundlagen

Ein Feedforward-Netz berechnet in jeder Schicht z = W·x + b und a = φ(z), wobei W die Gewichtsmatrix, b der Bias und φ die Aktivierungsfunktion ist. Beim Training minimierst Du eine Kosten- bzw. Verlustfunktion (z. B. MSE oder Kreuzentropie) mittels Gradienten und Gradientenabstieg. Backpropagation nutzt die Kettenregel der Differentialrechnung, um die Gradienten effizient durch das Netz zu berechnen.


Architekturen

  1. Perceptron: Einfachstes lineares Klassifikations-Modell.
  2. Mehrschichtiges Perzeptron (MLP): Mehrere verborgene Schichten.
  3. CNN: Faltungen für Bildverarbeitung.
  4. RNN, LSTM, GRU: Sequenzen und Zeitreihen.
  5. Autoencoder & VAE: Kompression/Generieren.
  6. GAN: Generator und Diskriminator im Wettbewerb.
  7. Transformer: Self-Attention für NLP, Vision und Multimodalität.


Training, Regularisierung und Optimierung

  1. Backpropagation & Optimierer: SGD, Momentum, RMSProp, Adam.
  2. Regularisierung: L1, L2, Dropout, Early Stopping, Datenaugmentation.
  3. Lernrate & Sheduling: Warmup, Cosine.
  4. Batch-Normierung: BatchNorm, LayerNorm.


Überwachtes, unüberwachtes und bestärkendes Lernen

  1. Überwachtes Lernen: Klassifikation, Regression.
  2. Unüberwachtes Lernen: Clustering, Reduktion.
  3. Bestärkendes Lernen (RL): Agent maximiert Belohnung mittels Policy und Wertfunktionen.


Anwendungen

  1. Bild- und Objekterkennung (z. B. CNNs).
  2. Sprach- und Audioverarbeitung (RNN/LSTM, Transformer).
  3. Übersetzung & Textverständnis.
  4. Empfehlungssysteme.
  5. Diagnostik, Autonomes Fahren, Forecasting.
  6. Erklärbarkeit & Ethik: Bias, Fairness, Transparenz.


Interaktive Aufgaben


Quiz: Teste Dein Wissen

Woraus besteht die Grundoperation eines künstlichen Neurons? (Gewichtete Summe plus Bias und Aktivierungsfunktion) (!Nur eine logische UND-Verknüpfung) (!Eine feste Tabelle mit Ausgaben ohne Gewichte) (!Zufällige Ausgabe ohne Eingaben)

Welche Funktion minimiert man beim Training? (Die Verlust- bzw. Kostenfunktion) (!Die Aktivierungsfunktion) (!Die Normalisierungsfunktion) (!Die Zufallsfunktion)

Wofür steht die Abkürzung CNN? (Convolutional Neural Network) (!Conditional Numeric Network) (!Central Neural Node) (!Convergent Neuron Net)

Welche Methode berechnet Gradienten effizient durch alle Schichten? (Backpropagation) (!Forward Sampling) (!Principal Component Analysis) (!K-Means)

Welche Aktivierungsfunktion ist stückweise linear und oft in Deep Learning verwendet? (ReLU) (!Softmax) (!Sigmoid) (!Gauß)

Welches Verfahren gehört zur Regularisierung? (Dropout) (!Max-Pooling) (!Softmax) (!Batching)

Welche Architektur eignet sich besonders für Sequenzen? (LSTM) (!Perceptron) (!Radial Basis Function) (!K-Means-Netz)

Was bewirkt die Lernrate beim Gradientenabstieg? (Sie bestimmt die Schrittweite der Gewichtsaktualisierung) (!Sie legt die Anzahl der Schichten fest) (!Sie wählt die Aktivierungsfunktion) (!Sie erzeugt neue Trainingsdaten)

Was ist der Zweck von Softmax in der Klassifikation? (Normalisierung zu Wahrscheinlichkeiten über Klassen) (!Verkürzung der Trainingszeit durch Pruning) (!Ersetzen von Convolutions) (!Reduktion der Eingabedimension)

Welches Konzept steht im Zentrum von Transformern? (Self-Attention) (!Gewichts-Sharing über Convolutions) (!Zeitverzögerte Rekurrenz) (!Reinforcement Belohnung)





Memory

Perceptron Frühes lineares Klassifikationsmodell
Backpropagation Gradientenberechnung mit Kettenregel
ReLU Stückweise lineare Aktivierung
CNN Faltungen für Bilderkennung
LSTM Gedächtniszellen für Sequenzen
Softmax Wahrscheinlichkeitsverteilung über Klassen





Drag and Drop

Ordne die richtigen Begriffe zu. Meilensteine neuronaler Netze (chronologisch)
McCulloch-Pitts 1
Perceptron 2
Backpropagation 3
AlexNet 4
Transformer 5


...


Kreuzworträtsel

Perceptron Einfachstes Neuronmodell zur Klassifikation?
Backpropagation Wie heißt das Standardverfahren zur Gradientenberechnung?
Synapse Wie nennt man die Verbindungsstelle zwischen Neuronen (biologisch)?
Gradienten Welche Größen werden beim Abstieg berechnet und genutzt?
Aktivierung Wie heißt die Ausgabe nach der Nichtlinearität?
Transformer Welche Architektur nutzt Self-Attention zentral?





LearningApps


Lückentext

Vervollständige den Text.

Ein neuronales Netz besteht aus Schichten mit vielen

und Verbindungen mit

.
Die gewichtete Eingabe wird um einen

ergänzt und durch eine Aktivierungsfunktion

.
Beim Training minimiert man eine

mithilfe von Gradienten und

.
Das Verfahren zur effizienten Gradientenberechnung heißt

und nutzt die

.
In der Bildverarbeitung sind

verbreitet, in der Sprachverarbeitung oft

.
Zur Vermeidung von Überanpassung dienen Methoden wie

und

.




Offene Aufgaben

Leicht

  1. Begriffe sammeln: Erstelle ein Glossar mit mindestens 15 Begriffen (z. B. Neuron, Gewicht, ReLU, Softmax) und kurzen Erklärungen.
  2. Skizze zeichnen: Zeichne ein einfaches MLP mit Eingabe-, verborgenen und Ausgabeschichten.
  3. Anwendungen recherchieren: Finde fünf reale Anwendungen von neuronalen Netzen in Deinem Alltag.

Standard

  1. Mini-Experiment: Simuliere per Tabellenkalkulation ein Perceptron für eine ODER-Logik. Dokumentiere die Gewichte und Ergebnisse.
  2. Datenethik: Analysiere, wo Bias in Trainingsdaten entstehen kann, und formuliere Gegenmaßnahmen.
  3. Architekturvergleich: Vergleiche CNN, RNN/LSTM und Transformer hinsichtlich Stärken/Schwächen.

Schwer

  1. Kleines Projekt: Implementiere ein MLP zur Klassifikation eines kleinen Datensatzes (z. B. Iris). Erkläre Train/Validation/Test.
  2. Hyperparameter-Studie: Untersuche Einfluss von Lernrate, Batchgröße und Epochen auf die Generalisation.
  3. Erklärbarkeit: Wende einfache XAI-Methoden (z. B. Saliency) auf ein Bildklassifikationsmodell an.




Text bearbeiten Bild einfügen Video einbetten Interaktive Aufgaben erstellen



Lernkontrolle

  1. Übertrage Konzepte: Erkläre, wie Du ein CNN für Audio anpassen würdest – welche Schritte und warum?
  2. Vergleiche Verfahren: In welchem Szenario ist Transformer einem LSTM überlegen – begründe fachlich.
  3. Regularisierung planen: Entwirf einen Regularisierungsplan für ein überanpassendes Modell (Konzept, nicht Code).
  4. Fehler analysieren: Ein Modell ist stabil im Training aber schlecht auf Testdaten – welche Ursachen, welche Maßnahmen?
  5. Metriken wählen: Welche Metriken nutzt Du für ein unausgewogenes Klassifikationsproblem und warum?



OERs zum Thema



Medien

Datei:Perceptron mini.png
Datei:Deep neural network.png


Links

Teilen - Diskussion - Bewerten





Schulfach+




aiMOOCs



aiMOOC Projekte












YouTube Music: THE MONKEY DANCE


Spotify: THE MONKEY DANCE


Apple Music: THE MONKEY DANCE

Amazon Music: THE MONKEY DANCE



The Monkey Dance SpreadShirtShop




The Monkey DanceaiMOOCs

  1. Trust Me It's True: #Verschwörungstheorie #FakeNews
  2. Gregor Samsa Is You: #Kafka #Verwandlung
  3. Who Owns Who: #Musk #Geld
  4. Lump: #Trump #Manipulation
  5. Filth Like You: #Konsum #Heuchelei
  6. Your Poverty Pisses Me Off: #SozialeUngerechtigkeit #Musk
  7. Hello I'm Pump: #Trump #Kapitalismus
  8. Monkey Dance Party: #Lebensfreude
  9. God Hates You Too: #Religionsfanatiker
  10. You You You: #Klimawandel #Klimaleugner
  11. Monkey Free: #Konformität #Macht #Kontrolle
  12. Pure Blood: #Rassismus
  13. Monkey World: #Chaos #Illusion #Manipulation
  14. Uh Uh Uh Poor You: #Kafka #BerichtAkademie #Doppelmoral
  15. The Monkey Dance Song: #Gesellschaftskritik
  16. Will You Be Mine: #Love
  17. Arbeitsheft


© The Monkey Dance on Spotify, YouTube, Amazon, MOOCit, Deezer, ...



Text bearbeiten Bild einfügen Video einbetten Interaktive Aufgaben erstellen

Teilen Facebook Twitter Google Mail an MOOCit Missbrauch melden Zertifikat beantragen


0.00
(0 Stimmen)











Children for a better world >> Förderung der AI Fair-Image Challenge

Fair-Image wird von CHILDREN JUGEND HILFT! gefördert und ist mit der deutschlandweiten AI Fair-Image Challenge SIEGERPROJEKT 2025. Alle Infos zur Challenge hier >>. Infos zum Camp25 gibt es hier. Wenn auch Ihr Euch ehrenamtlich engagiert und noch finanzielle Unterstützung für Eurer Projekt braucht, dann stellt gerne einen Antrag bei JUGEND HILFT.