Dieser Kurs bringt Sie direkt zur Arbeit mit Daten. Sie trainieren Modelle mit scikit-learn, bereinigen unvollständige Datensätze und debuggen, wenn Ihr Modell nur 60% Genauigkeit erreicht statt der erwarteten 85%.
Technischer Fokus
Sie arbeiten mit Jupyter Notebooks und echten Problemen: Regression für Preisvorhersagen, Klassifikation für Kategorisierung, Feature Engineering für bessere Ergebnisse. Wir verwenden Datensätze wie Kaggle-Challenges, nicht synthetische Beispiele.
Der Kurs zeigt, wie Sie Modelle evaluieren – Confusion Matrix, ROC-Kurven, Cross-Validation. Sie lernen, wann Random Forest besser funktioniert als Logistic Regression und warum Ihr Modell in der Produktion schlechter performt als im Training.
Vorkenntnisse in Python erforderlich. Sie sollten Pandas DataFrames lesen und grundlegende Funktionen schreiben können.
Am Ende deployen Sie ein Modell als REST-API mit Flask. Keine perfekte Produktionslösung, aber funktionsfähig genug für erste Tests.
Programmübersicht
Praktische Module
- Python-Setup: Anaconda, Jupyter, wichtige Libraries
- Datenaufbereitung: Fehlende Werte, Normalisierung, Encoding
- Supervised Learning: Regression, Klassifikation, Evaluation
- Feature Engineering: Neue Features erstellen, Selection
- Model Tuning: Hyperparameter, Grid Search
- Deployment: Flask-API, Docker-Container