Was erwartet Sie?

Ein systematischer Ansatz für neuronale Netze

Sie erhalten strukturiertes Wissen über Architekturmuster, Trainingsmethoden und praktische Implementierung. Jedes Modul baut auf konkreten Beispielen auf.

Der Fokus liegt auf nachvollziehbaren Schritten, die Sie direkt in eigenen Projekten anwenden können. Von grundlegenden Konzepten bis zu fortgeschrittenen Techniken arbeiten Sie mit realen Datensätzen und dokumentierten Experimenten.

Praktische Arbeit mit neuronalen Netzen und Architekturmodellen

Was Sie in den einzelnen Modulen erwartet

Jedes Modul konzentriert sich auf spezifische Aspekte neuronaler Architekturen und bietet einen klaren Weg durch die Materie.

Modul 1–2

Grundlagen und erste Architekturen

Sie beginnen mit den Bausteinen neuronaler Netze. Perceptrons, Aktivierungsfunktionen, Backpropagation – die Mechanismen, die jedes Netz antreiben.

Danach bauen Sie einfache Feed-Forward-Netze und verstehen, wie Schichten zusammenwirken. Sie trainieren erste Modelle auf MNIST und analysieren die Ergebnisse.

  • Mathematische Grundlagen und Gradienten
  • Implementierung einfacher Netze in PyTorch
  • Optimierungsverfahren im Vergleich
  • Debugging von Trainingsläufen
Modul 3

Convolutional Neural Networks

Hier geht es um Bildverarbeitung. Sie verstehen Faltungsoperationen, Pooling-Schichten und Feature Maps.

Sie bauen CNNs für Klassifikation und Objekterkennung, arbeiten mit CIFAR-10 und lernen, warum bestimmte Architekturen besser funktionieren als andere.

87% Accuracy erreicht
5 Architekturvarianten
Modul 4

Rekurrente Netze und Sequenzen

RNNs, LSTMs und GRUs für zeitabhängige Daten. Sie arbeiten mit Textsequenzen und Zeitreihen.

Sie verstehen das Vanishing-Gradient-Problem und lernen, wie moderne Architekturen damit umgehen.

Modul 5–6

Transformer und Attention-Mechanismen

Die Architektur hinter den meisten modernen Sprachmodellen. Sie implementieren Self-Attention, Multi-Head-Attention und verstehen Positional Encoding.

Sie arbeiten mit vortrainierten Modellen, fine-tunen sie und analysieren, wie verschiedene Schichten Information verarbeiten.

  • Aufbau von Transformer-Blöcken
  • Tokenisierung und Embedding-Strategien
  • Transfer Learning mit BERT und GPT
  • Interpretation von Attention-Patterns
3 Architekturvarianten
12 Praktische Übungen
Modul 7

Generative Modelle

VAEs, GANs und Diffusionsmodelle. Sie verstehen, wie Netze neue Daten erzeugen und lernen die Herausforderungen beim Training kennen.

Sie experimentieren mit verschiedenen Loss-Funktionen und Architekturen, analysieren Mode Collapse und entwickeln Strategien dagegen.

Modul 8

Optimierung und Deployment

Quantisierung, Pruning, Knowledge Distillation – Techniken, um Modelle kleiner und schneller zu machen.

Sie lernen, Modelle für verschiedene Plattformen zu exportieren und Inferenz-Pipelines zu bauen.

Der Weg durch das Programm

Das Programm folgt einer logischen Progression. Jede Phase baut auf der vorherigen auf und führt Sie systematisch durch die wichtigsten Architekturmuster und Techniken.

1
Einstieg

Fundament schaffen

Sie beginnen mit mathematischen Grundlagen und einfachen Netzen. Der Fokus liegt darauf, die Mechanismen wirklich zu verstehen – nicht nur zu implementieren.

Sie schreiben Backpropagation von Hand, vergleichen verschiedene Optimierer und sehen, wie kleine Änderungen große Auswirkungen haben.

NumPy Grundlagen PyTorch Einführung Gradientenberechnung Verlustfunktionen
Wochen 1–3
2
Spezialisierung

Domänenspezifische Architekturen

CNNs für Bilder, RNNs für Sequenzen. Sie lernen, warum bestimmte Architekturen für bestimmte Datentypen entwickelt wurden.

Sie implementieren ResNet-Blöcke, experimentieren mit verschiedenen Pooling-Strategien und verstehen, wie Regularisierung funktioniert.

Convolutional Layers Batch Normalization Dropout-Techniken Data Augmentation LSTM-Implementierung
Wochen 4–7
3
Moderne Architekturen

Transformer und fortgeschrittene Modelle

Die Architektur, die NLP revolutioniert hat. Sie bauen Transformer von Grund auf, verstehen Multi-Head-Attention und arbeiten mit vortrainierten Modellen.

Sie fine-tunen BERT für spezifische Tasks, analysieren, wie verschiedene Schichten Information verarbeiten, und optimieren Inferenzgeschwindigkeit.

Self-Attention Positional Encoding Transfer Learning Tokenisierung
Wochen 8–11
4
Abschluss

Generative Modelle und Optimierung

GANs, VAEs, Diffusionsmodelle – wie Netze neue Daten erzeugen. Sie verstehen die Herausforderungen und entwickeln Lösungsstrategien.

Zum Abschluss lernen Sie, Modelle für Production zu optimieren: Quantisierung, Pruning, Deployment auf verschiedenen Plattformen.

GAN-Training VAE-Architektur Model Compression ONNX Export Inference Optimization
Wochen 12–15
Weitere Informationen zu Cookies