Computationale Semantik beschäftigt sich mit semantischen Repräsentationen von natürlichsprachlichen Texten. Diese Repräsentationen können in zwei Gruppen geteilt werden. Logische Repräsentationen auf denen eine Beziehung von logischer Folgerung definiert werden kann und Repräsentationen die auf semantischer Ähnlichkeit oder Wahrscheinlichkeit basieren. Letztere werden für Clustering und Informationssuche verwendet.
Im Bereich der logischen Analyse der natürlichen Sprache werden wir einen Überblick über die Montague Semantik geben. Dabei werden wir nach dem Buch [Blackburn, 2005] vorgehen.
Im Bereich der auf semantischer Ähnlichkeit oder Wahrscheinlichkeit basierenden Repräsentationen werden wir uns mit Latent Semantic Analysis (LSA), Probabilistic Latent Semantic Analysis (PLSA) und Graphen-basierten Methoden beschäftigen.
Einführung in die Semantik natürlicher Sprachen
Logische Repräsentation und Folgerung
Repräsentation und Folgerung basierend auf Ähnlichkeit oder Wahrscheinlichkeit
-
Latent Semantic Analysis (LSA)
-
Probabilistic Latent Semantic Analysis (PLSA) und Expectation Maximization (EM) Algorithmus
-
Graphen-basierte semantische Ähnlichkeitsmaße
Discourse Representation Theory (DRT)
Lernen von Syntax
Didaktische Vorgehensweise
Die Übung besteht aus einem theoretischen und praktischen Teil mit Programmieraufgaben.
Weitere Informationen
ECTS-Aufteilung:
25 h Vorlesung + Übung
25 h Vorbereitung der Übungsbeispiele
23 h Vorbereitung für schriftliche Prüfung
2 h schriftliche Prüfung
------
75 h Gesamtaufwand = 3 ECTS
Patrick Blackburn, Johan Bos, Representation and Inference for Natural Language. A First Course in Computational Semantics, CSLI, 2005
Chris Manning, Hinrich Schütze, Foundations of Statistical Natural Language Processing, MIT Press, 1999