Der Kurs gibt einen Überblick über die wichtigsten probabilistischen Methoden des maschinellen Lernens. Nach einer kurzen Erinnerung an die Grundlagen der Wahrscheinlichkeitstheorie werden im Kurs so wichtige Konzepte wie Bayessche Statistik, Monte-Carlo-Methoden, probabilistische grafische Modelle (inkl. Bayes- und Markov-Netzwerke), Modelle mit latenten Variablen (Gemischte Modelle, LDA und HMM) und die Methoden der approximaten Inferenz. Am Ende des Kurses werden die Methoden der probabilistischen Modellierung unter Abhängigkeit besprochen, nämlich die Gauß-Prozesse und die Zeitreihenanalyse (inkl. Autoregressive (AR) und Moving Average (MA) Modelle sowie die Begriffe Kalman- und Partikel-Filter). Abschließend wird diskutiert, wie die betrachteten Methoden in verschiedenen Bereichen, wie z. B. Bild-Erkennung, NLP und Anomalieerkennung, angewendet werden können.

ePortfolio: No