Ratasich, D. (2014). Generic low-level sensor fusion framework for cyber-physical systems [Diploma Thesis, Technische Universität Wien]. reposiTUm. https://doi.org/10.34726/hss.2014.21220
sensor fusion; data fusion; state estimation; Robot Operating System package for state estimation; Kalman filters; particle filter; (robot) pose estimation
en
Abstract:
Sensoren sind meist unpräzise und unsicher, da die Messungen durch Rauschen verfälscht werden. Überdies liefern Sensoren oft nur ausreichend genaue Werte in einem Teilbereich der zu messenden Größe. Diese Probleme können durch Sensor Fusion bewältigt werden. Sensor Fusion kombiniert Messungen von Sensoren um eine bessere Darstellung einer gemessenen Größe zu erreichen, d.h. Sensor Fusion erhöht die Qualität der Daten. Algorithmen, die Sensor Fusion oder im Allgemeinen Data Fusion implementieren, verbessern zum Beispiel Genauigkeit, Zuverlässigkeit und Vollständigkeit einer beobachteten Größe. Obwohl viele Sensor Fusion Algorithmen existieren, gibt es nur wenig Literatur, die die verschiedenen Methoden vergleicht und umso weniger Programmbibliotheken, die mehrere Methoden implementieren. Bestehende Implementierungen von üblichen Algorithmen sind meistens schwer zu konfigurieren und für wenige Applikationen anwendbar. Diese Arbeit befasst sich mit dem Design und der Implementierung eines generischen Frameworks, das verschiedene Sensor Fusion Algorithmen mit identischem Interface integriert. Die Implementierung basiert auf dem Robot Operating System, damit wird eine breite Anwendung des Frameworks ermöglicht. Die implementierten Methoden können für eine beliebige Anzahl an Sensoren konfiguriert werden und in bestehende Applikationen einfach integriert werden. Es wird speziell auf Low-Level Sensor Fusion eingegangen, die rohe Sensordaten verarbeitet und somit die Basis für ein uverlässiges System ist. Im Detail werden sogenannte State Estimation Algorithmen behandelt. Diese verwenden ein Modell des Systems um die Sensordaten so zu kombinieren, dass der Fehler zwischen geschätztem und tatsächlichem Zustand des Systems minimiert wird. Die Genauigkeit der Algorithmen wird in einer Test-Applikation experimentell ermittelt und verglichen. Im Zuge dieser Test-Applikation schätzt ein Roboter seine aktuelle Position mittels verschiedener Sensoren und unterschiedlicher Konfigurationen. Den Abschluss bilden Richtlinien und Tipps zur Konfiguration von State Estimation Algorithmen.
de
Sensors usually suffer from imprecision and uncertainty, e.g. measurements are corrupted by noise. Additionally the observations of a sensor may be incomplete, i.e. a single sensor possibly does not cover the entire range of a measured variable. To overcome these problems, sensor fusion techniques are often applied. Sensor fusion combines measurements to improve the description of a property in a system, i.e. to provide data of higher quality. Although various sensor fusion algorithms exist, there is only few literature comparing the different methods, and still less frameworks collecting sensor fusion algorithms. Several implementations of commonly used algorithms exist but are difficult to configure and less applicable. The objective of this thesis is the design and implementation of a generic framework that integrates various sensor fusion algorithms with a common interface. The implementation is build on top of the Robot Operating System, which enables a wide usage of the framework. The implemented methods can be configured to combine an arbitrary number of sensors and can be easily integrated into an existing application. The focus within this thesis lies on low-level sensor fusion, i.e. fusion that is processing raw sensory data. In particular so-called state estimation algorithms are discussed. Such fusion methods use a system model to combine the measurements to minimize the error between actual and estimated state of the system. The accuracy of the algorithms are experimentally evaluated and compared, using a dead-reckoning navigation application on a robot (i.e. the position is estimated considering the translation and rotation of the robot). Several sensors and different configurations are investigated. The parameters of the methods are tuned to reach the best possible accuracy and guidelines for configuring sensor fusion algorithms are stated.
en
Additional information:
Zsfassung in dt. Sprache. - Literaturverz. S. 89 - 91