Haubenstock, M. (2018). Fusionierung von Dense Visual Odometry für RGB-D Kameras mit dem Ackermann Motion Model [Diploma Thesis, Technische Universität Wien]. reposiTUm. https://doi.org/10.34726/hss.2018.61782
Die Automation Systems Group der TU Wien hat verschiedene ferngesteuerte Autos im Maßstab 1:10 für Lehrzwecke gebaut [KBB16]. Diese Autos haben Steuerungsencoder für Odometry-Schätzungen, Farbkameras und Tiefenkameras für räumliche Wahrnehmung. Das Problem mit steuerungsbasierter Odometry ist, dass diese anfälling für Fehler durch Rutschen der Räder und schlechte Umgebungsbedingungen ist [Sca11]. Um diese Nachteile zu überwinden, verwenden wir Visual Odometry (VO) mit "motion Priors", um eine robustere Laufbahn zu ermitteln. Motiviert durch jüngste Forschung in Lie-Gruppen basierter Odometry [KSC13b, LeM+17, FCDS17, EKC16] und kommerzielles Interesse an selbst fahrenden Autos [Lan17], haben wir in dieser Arbeit zwei Aufgabenstellungen. Erstens, ein Lie-Gruppen basiertes VO System, basierend auf der Arbeit von Kerl et al. [KSC13b] ohne Imagepyramiden, zu entwicklen. Zweitens, das VO System auf dem ferngesteuerte Auto der TU Wien anzuwen- den. Wir werden das Ackermann-Bewegungsmodell [FMB13, WM10] benutzen, um die VO-Schätzung zu verbessern. Dieses Bewegungsmodell ist von den Steuerungskommandos des Autos abgeleitet und eignet sich besser für Fahrzeuge mit Dreirad-basierter Steuerung. Wir haben unsere Implementierung auf Datensätzen der Technischen Universität München (TUM) [SEE+12] und eigens erstellten Daten, der TU Wien, getestet. Unsere Resultate für die TUM Datensätze zeigen, dass wir eine grobe Laufbahn schätzen können. Aber durch die fehlende Imagepyramide ist unsere Laufbahn 5 schlechter als in den Arbeit von Kerl et al. [KSC13b]. Wegen schlechter Aufnahmebedigunen, hat die Tiefenkamera für den TUW Datensatz nur spärlich besetzte Aufnahmen erstellt. Dadurch hat die VO-Schätzung einen Drift von 0.17 m/s. Mit dem Ackermann-Bewegungsmodell ist es uns aber gelungen, die VO-Schätzung zu verbessern und den Drift auf 0.12 m/s zu reduzieren.
de
The Automation Systems Group of the TU Wien has built multiple racecars in the scale of 1:10 for education purposes [KBB16]. These racecars have steering encoders for odometry estimation and a color and depth (RGB-D) camera system for perception. Currently the process of estimating the position and orientation (egomotion/odometry) is done via steering odometry only. However, such odometry is prone to be affected by wheel slippage and adverse conditions [Sca11]. To overcome these issues we propose to use Visual Odometry (VO) with motion priors, in order to produce a more robust egomotion estimate. Motived by recent research and large commercial interest in self-driving cars [Lan17] and recent research in lie group based odometry [KSC13b, LeM+17, FCDS17, EKC16], the aim of this thesis is twofold. First, to implement and examine a VO system, based on the works of Kerl et al. [KSC13b] without image pyramids. Second, to apply the VO to the racecars RGB-D camera and steering systems. We will use the Ackermann motion model [FMB13, WM10] to further improve the VO estimate. This motion model is derived from the racecars steering commands and is better suited for vehicles with tricycle like steering. We tested our implementation on the dataset of the Technical University of Munich (TUM) [SEE+12] and on a dataset generated for this thesis at the Technical University of Vienna(TUW). Our results for the TUM dataset show that the coarse trajectory is estimated correctly but due to the lack of an image pyramid, we are 5 worse than the works of Kerl et al. [KSC13b]. Due to environmental conditions, the TUW dataset produced very sparse depth measurements. As such the VOs estimated trajectory had a drift of 0.17 m/s. However, we observed that using the Ackermann motion model we are able to improve the VOs trajectory estimation and reduce the drift to 0.12 m/s.
en
Additional information:
Abweichender Titel nach Übersetzung der Verfasserin/des Verfassers