Neuronale Netze verstehen, nicht nur anwenden
Sie haben bereits mit ML-Tools gearbeitet. Frameworks installiert. Tutorials durchlaufen.
Aber wenn ein Modell versagt, wissen Sie nicht warum. Die Architektur bleibt eine Black Box. Die Entscheidungen basieren auf Vermutungen.
Wir zeigen Ihnen, wie neuronale Netze tatsächlich funktionieren. Von Grund auf. Mit echten Implementierungen.
Für wen unsere Ansätze entwickelt wurden
Drei verschiedene Ausgangslagen erfordern drei unterschiedliche Lernwege. Wir kennen die Herausforderungen jeder Gruppe.
Entwickler mit Grundkenntnissen
- Sie nutzen bereits Keras oder PyTorch, verstehen aber nicht, was unter der Haube passiert
- Hyperparameter werden durch Trial-and-Error angepasst, nicht durch Verständnis
- Bei Problemen mit Konvergenz fehlen Ihnen die Werkzeuge zur Diagnose
- Sie brauchen fundiertes Wissen über Backpropagation, Aktivierungsfunktionen und Optimierer
Datenanalysten im Übergang
- Erfahrung mit statistischer Modellierung, aber neuronale Netze bleiben eine Herausforderung
- Die Mathematik hinter Deep Learning erscheint komplexer als klassische ML-Verfahren
- Unsicherheit bei der Architekturwahl für spezifische Probleme
- Wunsch nach systematischer Einführung in CNN, RNN und Transformer-Architekturen
Quereinsteiger mit technischem Hintergrund
- Programmierkenntnisse vorhanden, aber ML-Erfahrung fehlt komplett
- Motivation durch konkrete Projekte, aber unsicher bei der Umsetzung
- Schwierigkeiten, zwischen Hype und tatsächlich anwendbaren Techniken zu unterscheiden
- Bedarf an strukturiertem Curriculum vom Perceptron bis zu modernen Architekturen
Wie wir Wissen vermitteln
Kein standardisierter Kurs. Wir passen die Methodik an Ihr Tempo, Ihre Vorkenntnisse und Ihre Ziele an.
Vom Code zur Theorie
Sie schreiben ein funktionierendes neuronales Netz in NumPy, bevor wir über Ableitungen sprechen. Die Mathematik wird greifbar, weil Sie bereits gesehen haben, wozu sie dient.
Praktische Implementierung
Forward Pass, Backpropagation und Weight Updates von Hand implementiert
Debugging-Kompetenz
Gradient Checking, Loss-Kurven-Analyse und Aktivierungs-Visualisierung
Mathematik mit praktischem Zweck
Partielle Ableitungen werden nicht abstrakt eingeführt, sondern genau dann, wenn Sie einen Gradienten berechnen müssen. Jede Formel hat einen konkreten Anwendungsfall.
Chain Rule verstehen
Schritt für Schritt durch ein zweischichtiges Netz mit tatsächlichen Zahlen
Optimierungsverfahren
SGD, Momentum, Adam – nicht als Formeln, sondern als Bewegung im Loss-Landscape
Aus Fehlern lernen
Ihr Modell overfittet. Die Loss-Kurve explodiert. Die Gradienten verschwinden. Genau diese Situationen nutzen wir als Lernmomente, nicht als Misserfolge.
Systematisches Debugging
Checklisten und Methoden zur Diagnose häufiger Probleme
Regularisierungstechniken
Dropout, L2-Regularization, Batch Normalization – wann und warum
Von einfach zu komplex
Wir beginnen mit linearer Regression als neuronales Netz. Dann fügen wir eine Hidden Layer hinzu. Dann Nonlinearität. Dann Convolutional Layers. Jeder Schritt baut auf dem vorherigen auf.
Modularer Aufbau
Jede neue Architektur-Komponente wird isoliert eingeführt und verstanden
Architektur-Patterns
ResNets, Attention Mechanisms, Encoder-Decoder – schrittweise erklärt