Ein systematischer Ansatz für neuronale Netze
Sie erhalten strukturiertes Wissen über Architekturmuster, Trainingsmethoden und praktische Implementierung. Jedes Modul baut auf konkreten Beispielen auf.
Der Fokus liegt auf nachvollziehbaren Schritten, die Sie direkt in eigenen Projekten anwenden können. Von grundlegenden Konzepten bis zu fortgeschrittenen Techniken arbeiten Sie mit realen Datensätzen und dokumentierten Experimenten.
Was Sie in den einzelnen Modulen erwartet
Jedes Modul konzentriert sich auf spezifische Aspekte neuronaler Architekturen und bietet einen klaren Weg durch die Materie.
Grundlagen und erste Architekturen
Sie beginnen mit den Bausteinen neuronaler Netze. Perceptrons, Aktivierungsfunktionen, Backpropagation – die Mechanismen, die jedes Netz antreiben.
Danach bauen Sie einfache Feed-Forward-Netze und verstehen, wie Schichten zusammenwirken. Sie trainieren erste Modelle auf MNIST und analysieren die Ergebnisse.
- Mathematische Grundlagen und Gradienten
- Implementierung einfacher Netze in PyTorch
- Optimierungsverfahren im Vergleich
- Debugging von Trainingsläufen
Convolutional Neural Networks
Hier geht es um Bildverarbeitung. Sie verstehen Faltungsoperationen, Pooling-Schichten und Feature Maps.
Sie bauen CNNs für Klassifikation und Objekterkennung, arbeiten mit CIFAR-10 und lernen, warum bestimmte Architekturen besser funktionieren als andere.
Rekurrente Netze und Sequenzen
RNNs, LSTMs und GRUs für zeitabhängige Daten. Sie arbeiten mit Textsequenzen und Zeitreihen.
Sie verstehen das Vanishing-Gradient-Problem und lernen, wie moderne Architekturen damit umgehen.
Transformer und Attention-Mechanismen
Die Architektur hinter den meisten modernen Sprachmodellen. Sie implementieren Self-Attention, Multi-Head-Attention und verstehen Positional Encoding.
Sie arbeiten mit vortrainierten Modellen, fine-tunen sie und analysieren, wie verschiedene Schichten Information verarbeiten.
- Aufbau von Transformer-Blöcken
- Tokenisierung und Embedding-Strategien
- Transfer Learning mit BERT und GPT
- Interpretation von Attention-Patterns
Generative Modelle
VAEs, GANs und Diffusionsmodelle. Sie verstehen, wie Netze neue Daten erzeugen und lernen die Herausforderungen beim Training kennen.
Sie experimentieren mit verschiedenen Loss-Funktionen und Architekturen, analysieren Mode Collapse und entwickeln Strategien dagegen.
Optimierung und Deployment
Quantisierung, Pruning, Knowledge Distillation – Techniken, um Modelle kleiner und schneller zu machen.
Sie lernen, Modelle für verschiedene Plattformen zu exportieren und Inferenz-Pipelines zu bauen.
Der Weg durch das Programm
Das Programm folgt einer logischen Progression. Jede Phase baut auf der vorherigen auf und führt Sie systematisch durch die wichtigsten Architekturmuster und Techniken.
Fundament schaffen
Sie beginnen mit mathematischen Grundlagen und einfachen Netzen. Der Fokus liegt darauf, die Mechanismen wirklich zu verstehen – nicht nur zu implementieren.
Sie schreiben Backpropagation von Hand, vergleichen verschiedene Optimierer und sehen, wie kleine Änderungen große Auswirkungen haben.
Domänenspezifische Architekturen
CNNs für Bilder, RNNs für Sequenzen. Sie lernen, warum bestimmte Architekturen für bestimmte Datentypen entwickelt wurden.
Sie implementieren ResNet-Blöcke, experimentieren mit verschiedenen Pooling-Strategien und verstehen, wie Regularisierung funktioniert.
Transformer und fortgeschrittene Modelle
Die Architektur, die NLP revolutioniert hat. Sie bauen Transformer von Grund auf, verstehen Multi-Head-Attention und arbeiten mit vortrainierten Modellen.
Sie fine-tunen BERT für spezifische Tasks, analysieren, wie verschiedene Schichten Information verarbeiten, und optimieren Inferenzgeschwindigkeit.
Generative Modelle und Optimierung
GANs, VAEs, Diffusionsmodelle – wie Netze neue Daten erzeugen. Sie verstehen die Herausforderungen und entwickeln Lösungsstrategien.
Zum Abschluss lernen Sie, Modelle für Production zu optimieren: Quantisierung, Pruning, Deployment auf verschiedenen Plattformen.