Der Kurs lehrt den Student/Innen die grundlegenden Konzepte und Techniken aus dem Forschungsgebiet der Kamera-basierten 3D Umfeldmodellierung für mobile Roboter. Im Zuge der Vorlesungen werden die Herausforderungen, welche sich bei der Umfeld Wahrnehmung mit einem Fahrzeug ergeben, analysiert und aktuelle "State of the Art" Lösungen präsentiert. Während die dabei präsentierten Techniken universal einsetzbar sind, fokussiert sich der Kurs jedoch auf autonome Fahrzeuge.
In dieser Lehrveranstaltung werden ausgewählte Teilprobleme kamerabasierter Fahrerassistenzsysteme für autonome Fahrzeuge präsentiert. Dazu zählt die Schätzung von Bewegung in Bildern, die Berechnung von 3D Punkten, die Segmentierung statischer und dynamischer Objekte in Bildern sowie die Schätzung der Eigenbewegung der Kamera.In einem einführenden Vorlesungsteil werden wichtige grundlegende Begriffe der Bildverarbeitung und 3D Computer Vision kurz wiederholt, um auch TeilnehmerInnen mit geringen Vorkenntnissen die nötigen Voraussetzungen zu vermitteln. Außerdem wird in den Bereich der Fahrerassistenzsysteme eingeführt und wesentliche Begriffe sowie relevante Technologien besprochen. Im Hauptteil der Vorlesung werden effiziente Methoden zur 3D-Navigation, Lokalisierung sowie Rekonstruktion im Rahmen von Mono, Stereo und Surround View-Kamerasystemen besprochen und erarbeitet.Die Vorlesung vermittelt einerseits Techniken zur Schätzung und Tracking von Bewegungen sowie zur Rekonstruktion von 3D-Information aus der Videosequenz, andererseits wird ein Schwerpunkt auf aktuelle Entwicklungen und Anwendungen im Bereich von Fahrerassistenzsystemen gelegt. Die praktische Vermittlung der Lehrinhalte mittels Programmieraufgaben und Demonstrationen ist ein zentrales Anliegen der Lehrveranstaltung. Falls die Zeit es zulässt, werden aktuelle Arbeiten aus dem sehr aktiven Forschungsfeld der autonomen Fahrzeuge diskutiert und bearbeitet.
Dabei werden folgende Themen besprochen:
1. Einführung
2. Koordinatensysteme und Transformationen
3. Von 3D zu 2D und zurück zu 3D
4. Sensor Fusion & (V) SLAM
Detailinformationen zur LV werden in der Vorbesprechung am 4.10.2018 präsentiert. Bitte beachten Sie, dass keine Vorlesung stattfindet am 20.12. und am 10.1. Zusätzlich werden alle Informationen im TUWEL-Kurs zu dieser LV angeboten.
ECTS-Aufwandsabschätzung: 75h, die sich folgendermaßen ergeben:
Es wird 3 Programmieraufgaben zu den Vorlesungsinhalten geben, welche in einem persönlichen Abgabegespräch bewertet werden.
Voraussetzungen: