<div class="csl-bib-body">
<div class="csl-entry">Ratasich, D. (2014). <i>Generic low-level sensor fusion framework for cyber-physical systems</i> [Diploma Thesis, Technische Universität Wien]. reposiTUm. https://doi.org/10.34726/hss.2014.21220</div>
</div>
-
dc.identifier.uri
https://doi.org/10.34726/hss.2014.21220
-
dc.identifier.uri
http://hdl.handle.net/20.500.12708/7500
-
dc.description
Zsfassung in dt. Sprache. - Literaturverz. S. 89 - 91
-
dc.description.abstract
Sensoren sind meist unpräzise und unsicher, da die Messungen durch Rauschen verfälscht werden. Überdies liefern Sensoren oft nur ausreichend genaue Werte in einem Teilbereich der zu messenden Größe. Diese Probleme können durch Sensor Fusion bewältigt werden. Sensor Fusion kombiniert Messungen von Sensoren um eine bessere Darstellung einer gemessenen Größe zu erreichen, d.h. Sensor Fusion erhöht die Qualität der Daten. Algorithmen, die Sensor Fusion oder im Allgemeinen Data Fusion implementieren, verbessern zum Beispiel Genauigkeit, Zuverlässigkeit und Vollständigkeit einer beobachteten Größe. Obwohl viele Sensor Fusion Algorithmen existieren, gibt es nur wenig Literatur, die die verschiedenen Methoden vergleicht und umso weniger Programmbibliotheken, die mehrere Methoden implementieren. Bestehende Implementierungen von üblichen Algorithmen sind meistens schwer zu konfigurieren und für wenige Applikationen anwendbar. Diese Arbeit befasst sich mit dem Design und der Implementierung eines generischen Frameworks, das verschiedene Sensor Fusion Algorithmen mit identischem Interface integriert. Die Implementierung basiert auf dem Robot Operating System, damit wird eine breite Anwendung des Frameworks ermöglicht. Die implementierten Methoden können für eine beliebige Anzahl an Sensoren konfiguriert werden und in bestehende Applikationen einfach integriert werden. Es wird speziell auf Low-Level Sensor Fusion eingegangen, die rohe Sensordaten verarbeitet und somit die Basis für ein uverlässiges System ist. Im Detail werden sogenannte State Estimation Algorithmen behandelt. Diese verwenden ein Modell des Systems um die Sensordaten so zu kombinieren, dass der Fehler zwischen geschätztem und tatsächlichem Zustand des Systems minimiert wird. Die Genauigkeit der Algorithmen wird in einer Test-Applikation experimentell ermittelt und verglichen. Im Zuge dieser Test-Applikation schätzt ein Roboter seine aktuelle Position mittels verschiedener Sensoren und unterschiedlicher Konfigurationen. Den Abschluss bilden Richtlinien und Tipps zur Konfiguration von State Estimation Algorithmen.
de
dc.description.abstract
Sensors usually suffer from imprecision and uncertainty, e.g. measurements are corrupted by noise. Additionally the observations of a sensor may be incomplete, i.e. a single sensor possibly does not cover the entire range of a measured variable. To overcome these problems, sensor fusion techniques are often applied. Sensor fusion combines measurements to improve the description of a property in a system, i.e. to provide data of higher quality. Although various sensor fusion algorithms exist, there is only few literature comparing the different methods, and still less frameworks collecting sensor fusion algorithms. Several implementations of commonly used algorithms exist but are difficult to configure and less applicable. The objective of this thesis is the design and implementation of a generic framework that integrates various sensor fusion algorithms with a common interface. The implementation is build on top of the Robot Operating System, which enables a wide usage of the framework. The implemented methods can be configured to combine an arbitrary number of sensors and can be easily integrated into an existing application. The focus within this thesis lies on low-level sensor fusion, i.e. fusion that is processing raw sensory data. In particular so-called state estimation algorithms are discussed. Such fusion methods use a system model to combine the measurements to minimize the error between actual and estimated state of the system. The accuracy of the algorithms are experimentally evaluated and compared, using a dead-reckoning navigation application on a robot (i.e. the position is estimated considering the translation and rotation of the robot). Several sensors and different configurations are investigated. The parameters of the methods are tuned to reach the best possible accuracy and guidelines for configuring sensor fusion algorithms are stated.
en
dc.language
English
-
dc.language.iso
en
-
dc.rights.uri
http://rightsstatements.org/vocab/InC/1.0/
-
dc.subject
sensor fusion
en
dc.subject
data fusion
en
dc.subject
state estimation
en
dc.subject
Robot Operating System package for state estimation
en
dc.subject
Kalman filters
en
dc.subject
particle filter
en
dc.subject
(robot) pose estimation
en
dc.title
Generic low-level sensor fusion framework for cyber-physical systems
en
dc.type
Thesis
en
dc.type
Hochschulschrift
de
dc.rights.license
In Copyright
en
dc.rights.license
Urheberrechtsschutz
de
dc.identifier.doi
10.34726/hss.2014.21220
-
dc.contributor.affiliation
TU Wien, Österreich
-
dc.rights.holder
Denise Ratasich
-
tuw.version
vor
-
tuw.thesisinformation
Technische Universität Wien
-
dc.contributor.assistant
Höftberger, Oliver
-
tuw.publication.orgunit
E182 - Institut für Technische Informatik
-
dc.type.qualificationlevel
Diploma
-
dc.identifier.libraryid
AC11705077
-
dc.description.numberOfPages
91
-
dc.identifier.urn
urn:nbn:at:at-ubtuw:1-77417
-
dc.thesistype
Diplomarbeit
de
dc.thesistype
Diploma Thesis
en
tuw.author.orcid
0000-0002-8719-8667
-
dc.rights.identifier
In Copyright
en
dc.rights.identifier
Urheberrechtsschutz
de
tuw.advisor.staffStatus
staff
-
tuw.assistant.staffStatus
staff
-
item.openaccessfulltext
Open Access
-
item.openairecristype
http://purl.org/coar/resource_type/c_bdcc
-
item.grantfulltext
open
-
item.mimetype
application/pdf
-
item.languageiso639-1
en
-
item.openairetype
master thesis
-
item.fulltext
with Fulltext
-
item.cerifentitytype
Publications
-
crisitem.author.dept
E191-01 - Forschungsbereich Cyber-Physical Systems