* Einführung: Motivation, Anwendungen, Überblick.
* Bayessche Schätzung: Allgemeiner Bayesscher Schätzer, MMSE-Schätzer, MAP-Schätzer, ML-Schätzer, Anwendungsbeispiel.
* Bayessche Klassifizierung: Allgemeiner Bayesscher Klassifikator, MAP-Klassifikator, ML-Klassifikator, Anwendungsbeispiele.
* Exponentialfamilie: Definition und Ausdrücke, Log-partition-Funktion, erschöpfende Statistik, ML-Schätzer, a-posteriori-Verteilung, konjugierte a-priori-Verteilung, MMSE- und MAP-Schätzer, Beispiele.
* Bayessche Netze: Definition, grundlegende Beispiele, bedingte Unabhängigkeit, d-Trennungs-Eigenschaft, Markov-Decke und -Grenze.
* Variationelle Bayessche Inferenz: Laplace-Approximation, evidence lower bound, Mean-field-Approximation, CAVI-Algorithmus, Exponentialfamilie-Modell, Modell mit globalen und lokalen Parametern, Anwendungsbeispiel: Wort-Thema-Modellierung mit latenter Dirichlet-Zuordnung, stochastische variationelle Inferenz, Expectation-Propagation-Algorithmus.
* Methoden mit latenten Variablen: EM-Algorithmus, MAP-EM-Algorithmus, variationeller EM-Algorithmus, auto-encodierende variationelle Bayes-Methode, variationeller Auto-Encodierer.
Der Vortragende (Hlawatsch) trägt den Vorlesungsstoff vor, spricht mit den Studierenden darüber und beantwortet allfällige Fragen der Studierenden. Dabei bedient er sich einer Tafel, auf die er mittels Kreide (ggf. auch mehrfarbig) gewisse Zeichen schreibt und einfache Bilder zeichnet, sowie eines Tafeltuchs, mit dem er die Tafel von Zeit zu Zeit löscht. Weiters verwendet er einen Overhead-Projektor, mit dem er kompliziertere Bilder und Tabellen auf eine Leinwand projiziert. Der Vortrag des Vortragenden wird durch ein Skriptum unterstützt.
Diese Vorlesung kann als Teil des Wahlmoduls "Advanced Signal Processing" gewählt werden.
Erste Vorlesung: Donnerstag, 05.10.2023, 15:15 Uhr im Seminarraum 118 (Sem. 389). Die Vorlesung findet im Präsenzmodus statt.
Ein Skriptum kann heruntergeladen werden -- siehe Links weiter unten.
Empfohlenes Lehrbuch: Christopher M. Bishop, Pattern Recognition and Machine Learning, Springer, 2006. Kostenlos herunterladen:
https://www.microsoft.com/en-us/research/people/cmbishop/prml-book/