Sie kennen die Theorie hinter neuronalen Netzen? Gut. Hier lernen Sie, wie man sie tatsächlich zum Laufen bringt. Mit TensorFlow und Keras bauen Sie Architekturen, die mehr als drei Layer haben und trotzdem trainierbar bleiben.
Wir starten mit CNNs für Bildklassifikation – MNIST ist zu einfach, also verwenden wir CIFAR-10. Sie sehen, warum Ihre Validation Loss plötzlich steigt (Overfitting) und wie Dropout und Data Augmentation helfen.
Was Sie hier bauen
- Bildverarbeitung
- Transfer Learning mit ResNet, Fine-Tuning für eigene Datensätze
- Textverarbeitung
- RNNs und LSTMs für Sentiment-Analyse
- Optimierung
- Learning Rate Scheduling, Batch Normalization, verschiedene Optimizer
Der Kurs zeigt auch, wie man mit begrenzter GPU-Zeit arbeitet – Colab, Cloud-Instanzen, lokale Setups. Sie lernen, Trainingszeiten zu schätzen und Modelle effizient zu debuggen.
Erwarten Sie Frustration. Modelle konvergieren nicht immer beim ersten Versuch.
Programmübersicht
Technische Inhalte
- TensorFlow-Basics: Tensors, Computational Graphs
- Keras API: Sequential vs. Functional Models
- CNNs: Convolutional Layers, Pooling, Architekturen
- Transfer Learning: Vortrainierte Modelle nutzen
- RNNs/LSTMs: Sequenzdaten verarbeiten
- Training optimieren: Callbacks, Checkpoints, TensorBoard
- GPU-Training: CUDA, Memory Management
Voraussetzungen: Python, NumPy, grundlegendes ML-Verständnis. GPU empfohlen, aber nicht zwingend.