Computerprogramme weisen einen bestimmten Grad an Parallelismus auf, wodurch auf paralleler Hardware mehrere Operationen gleichzeitig ausgeführt werden können - in den derzeit stärksten Supercomputern rechnen Millionen von Prozessorkernen. Parallelismus kann implizit im Programm enthalten (z. B. in einer Schleife mit voneinander unabhängigen Iterationen) oder explizit vom Programmierer (mittels paralleler Sprachkonstrukte) angegeben sein.
Wie kann ein Übersetzer impliziten Parallelismus erkennen und - wie auch explizit spezifizierten - auf eine parallele Zielarchitektur abbilden, so dass deren Ressourcen optimal genutzt werden? Diese Fragestellung steht im Zentrum der Lehrveranstaltung. Sie vermittelt Übersetzungs- und Optimierungstechniken, die effizienten Code für Parallelrechner liefern.
Absolventinnen und Absolventen verstehen das fundamentale Konzept der Datenabhängigkeit und dessen Bedeutung für die Parallelisierung sequentieller Programme. Sie können
** Programmtransformationen zur Elimination von Abhängigkeiten und zur Verbesserung von Lokalität angeben und einordnen,
** grundlegende Vektorisierungs- und Parallelisierungsmethoden beschreiben und anwenden,
** das polyhedrale Modell zur Darstellung von Schleifen erklären und zur automatischen Parallelisierung einsetzen,
** Analysetechniken für parallele Programme aufzeigen und
** Übersetzungsstrategien für verbreitete parallele Sprachen darlegen.
Überblick über Parallele Systeme, Datenabhängigkeit, Abhängigkeitsanalyse und -tests, Programmtransformationen, Schleifentransformationen, Kontrollabhängigkeit und If-Konversion, Vektorisierung, Parallelisierung für Systeme mit gemeinsamem (do-all, do-across Schleifen) und verteiltem Speicher, Pipelining, Lokalitätsoptimierungen, Data Reuse, unimodulare und affine Transformationen, Parallelisierung im polyhedralen Modell, Zwischendarstellungen, Programmanalysen, Aspekte der Übersetzung von datenparallelen Sprachen (HPF), OpenMP, Cilk, PGAS-Sprachen (Datenaufteilung, Kommunikationsoptimierung, Iteration Scheduling, Laufzeitumgebung) und für Accelerators (GPUs); Ausblick: Autotuning, Laufzeitparallelisierung.
Randy Allen, Ken Kennedy. Optimizing compilers for modern architectures. Kaufmann, 2002.
Alfred V. Aho, Monica S. Lam, Ravi Sethi, Jeffrey D. Ullman, Compilers: Principles, Techniques, & Tools (2nd Edition). Pearson Addison Wesley, 2007.
Michael J. Wolfe. High-Performance Compilers for Parallel Computing. Addison-Wesley, 1996.
Hans Zima, Barbara Chapman. Supercompilers for Parallel and Vector Computers. ACM Press, 1990.