- Lineare Modelle für Regression und Klassifikation (inkl. Perceptron, Linear Basis Function Models, RBF, historische Entwicklung), Anwendungen in Visual Computing
- Neuronale Netze
- Fehlerfunktionen und Verfahren zur Parameteroptimierung (e.g., Pseudo-Inverse, Gradient Descent, Newton Methode)
- Modellkomplexität, Regularisierung, Model Selektion, VC Dimension
- Kernel Methoden: Dualität, Sparsity, Support Vector Machine
- Principal Component Analysis und Hebb Lernregel, Canonical Correlation Analysis, nicht lineare Kernel-Erweiterungen, Anwendungen für Visual Computing
- Bayessche Sicht der behandelten Modelle, Bayesian Regression, Relevance Vector Machine
- Clustering und Vektor Quantisierung (e.g., k-means)
- Überblick über Deep Learning Modelle
ECTS Breakdown:
4.5 ECTS = 112.5 Stunden
30 Vorlesung
70 2 Übungsrunden (inklusive Befassen mit grundlegenden Methoden und
Literatur, Erstellen von Programmcode in MATLAB oder einem ähnlichen Framework und Dokumentation)
2.5 2 Abgabegespräche (inklusive Vorbereitung)
10 Schriftliche Prüfung mit Vorbereitung