Parallelismus kann in einem Programm implizit enthalten sein - z. B. in einer Schleife mit unabhängigen Iterationen - oder mittels paralleler Sprachkonstrukte explizit spezifiziert sein. Die Lehrveranstaltung zeigt, wie ein Übersetzer impliziten Parallelismus erkennt, und wie er Parallelismus auf eine bestimmte parallele Architektur umsetzt. Sie vermittelt Übersetzungstechniken, die effizienten Code für Parallelrechner liefern. Als Zielarchitekturen werden Multiprozessorsysteme mit gemeinsamem und verteiltem Speicher betrachtet.
Absolventinnen und Absolventen verstehen das Konzept der Datenabhängigkeit und dessen Bedeutung für die Parallelisierung von Programmen. Sie können Programmtransformationen zur Elimination von Abhängigkeiten und zur Verbesserung von Lokalität angeben, grundlegende Vektorisierungs- und Parallelisierungsmethoden beschreiben und anwenden, das polyhedrale Modell erklären und zur Parallelisierung einsetzen, Analysetechniken für parallele Programme aufzeigen, und Übersetzungsstrategien für verbreitete parallele Sprachen darlegen.
Überblick über Parallele Systeme, Datenabhängigkeit, Kontrollabhängigkeit, Programmtransformationen, Vektorisierung, Parallelisierung für Systeme mit gemeinsamem und verteiltem Speicher, Lokalitätsoptimierungen, Polyhedrales Modell, Zwischendarstellungen, Programmanalysen, Übersetzung von parallelen Sprachen; Ausblick: Autotuning, Laufzeitparallelisierung. Im Übungsteil wird u.a. ein gegebener source-to-source Compiler um Programmtransformationen und parallele Übersetzungstechniken erweitert.
Randy Allen, Ken Kennedy. Optimizing compilers for modern architectures. Kaufmann, 2002.
Alfred V. Aho, Monica S. Lam, Ravi Sethi, Jeffrey D. Ullman, Compilers: Principles, Techniques, & Tools (2nd Edition). Pearson Addison Wesley, 2007.
Michael J. Wolfe. High-Performance Compilers for Parallel Computing. Addison-Wesley, 1996.
Hans Zima, Barbara Chapman. Supercompilers for Parallel and Vector Computers. ACM Press, 1990.