Elmenreich, W. (2002). Sensor fusion in time-triggered systems [Dissertation, Technische Universität Wien]. reposiTUm. https://resolver.obvsg.at/urn:nbn:at:at-ubtuw:1-11148
Sensor fusion is the combining of sensory data or data derived from sensory data in order to produce enhanced data in form of an internal representation of the process environment. The achievements of sensor fusion are robustness, extended spatial and temporal coverage, increased confidence, reduced ambiguity and uncertainty, and improved resolution. This thesis examines the application of sensor fusion for real-time applications. The time-triggered approach provides a well suited basis for building real-time systems due to its highly deterministic behavior. The integration of sensor fusion applications in a time-triggered framework supports resource-efficient dependable real-time systems. We present a time-triggered approach for real-time sensor fusion applications that partitions the system into three levels: First, a transducer level contains the sensors and the actuators. Second, a fusion/dissemination level gathers measurements, performs sensor fusion and distributes control information to the actuators. Third, a control level contains a control program making control decisions based on environmental information provided by the fusion level. Using this architecture, complex applications can be decomposed into smaller manageable subsystems. Furthermore, this thesis evaluates different approaches for achieving dependability. These approaches attack the problem at different levels. At the transducer level, we introduce a filter algorithm that performs successive measurements in order to improve the data quality of a single sensor. A different approach improves data by combining data of multiple sensors at the fusion/dissemination level. We propose two sensor fusion algorithms to accomplish this task, the systematic confidence-weighted averaging algorithm and the application-specific robust certainty grid algorithm. The proposed methods are evaluated and used in a case study featuring an autonomous mobile robot.
en
Unter Sensor Fusion versteht man die intelligente Zusammenfuehrung von Sensordaten zu einem konsistenten Bild der beobachteten Umgebung. Die Verwendung von Sensor Fusion erzielt stabiles Verhalten gegenueber Stoereinfluessen, eine Verbesserung des zeitlichen oder raeumlichen Messbereichs, erhoehte Aussagewahrscheinlichkeit einer Messung, eindeutige Interpretationen der Daten sowie verbesserte Aufloesung der Messdaten. Diese Arbeit untersucht die Integration von Sensor Fusion in Echtzeitsystemen. Echtzeitsysteme muessen auf gegebene Eingabedaten innerhalb definierter Zeitschranken reagieren. Zeitgesteuerte Echtzeitsystemen beinhalten eine globale Uhrensynchronisation und leiten saemtliche Steuersignale und Messzeitpunkte vom Fortschreiten der realen Zeit ab. Die Verfuegbarkeit einer global synchronisierten Zeit erleichtert die Implementierung von Sensor-Fusion-Algorithmen, da die Zeitpunkte verteilter Beobachtungen global interpretiert werden koennen. In dieser Arbeit wird ein zeitgesteuerter Ansatz fuer den Entwurf und die Implementierung von Sensor Fusion in Echtzeitanwendungen vorgestellt. Das vorgeschlagene Architekturmodell unterteilt eine Sensor-Fusion-Anwendung in drei Ebenen, die Transducerebene, die Fusionsebene und die Steuerungsebene. Die Unterteilung ermoeglicht die Zerlegung einer komplexen Applikation in beherrschbare, getrennt implementierbare und wiederverwendbare Teile. Der zweite Schwerpunkt dieser Arbeit liegt bei der Erhoehung der Zuverlaessigkeit von Sensordaten mittels Sensor Fusion. Um Zuverlaessigkeit zu erreichen, werden unterschiedliche Ansaetze fuer die verschiedenen Ebenen vorgestellt. Fuer die Transducerebene wird ein Filter eingesetzt, welcher mehrere zeitlich hintereinanderliegende Messungen zusammenfuehrt, um das Messergebnis zu verbessern. Auf der Fusionsebene werden Algorithmen vorgestellt, welche es ermoeglichen, aus einer Anzahl von redundanten Messungen unterschiedlicher Sensoren ein robustes Bild der beobachteten Umgebung zu errechnen. Die Anwendung der vorgestellten Verfahren wird experimentiell am Beispiel eines selbstfahrenden Roboters demonstriert und evaluiert. Dabei wird die Umgebung des Roboters mittels Infrarot- und Ultraschallsensoren beobachtet, um selbststaendig einen passierbaren Weg zwischen Hindernissen zu finden.