DC FieldValueLanguage
dc.contributor.advisorPfeifer, Norbert-
dc.contributor.authorGhuffar, Sajid-
dc.date.accessioned2020-06-28T02:52:33Z-
dc.date.issued2014-
dc.date.submitted2014-06-
dc.identifier.urihttps://resolver.obvsg.at/urn:nbn:at:at-ubtuw:1-74998-
dc.identifier.urihttp://hdl.handle.net/20.500.12708/2601-
dc.descriptionAbweichender Titel laut Übersetzung der Verfasserin/des Verfassers-
dc.descriptionZsfassung in dt. Sprache-
dc.description.abstractIn den letzten Jahren haben 3D-Kameras mit hohen Bildwiederholfrequenzen und günstigem Anschaffungspreis eine große Verbreitung gefunden. Diese Kameras erlauben gleichzeitig Entfernung und Intensität zu messen und sind deshalb für viele Anwendungen interessant. Die Vermessung von Innenräumen und die selbsttätige Auto-Navigation seien als Beispiele genannt. Die Bestimmung der Bewegung der Kamera bzw. jener der beobachteten Objekte ist eine wichtige Teilaufgabe in all diesen möglichen Anwendungen. Deshalb ist es wichtig Methoden zu untersuchen, die die Bewegung unter Verwendung der simultan erfassten Strecken- und Intensitätsmessungen bestimmen. Diese Arbeit untersucht diese gemeinsame Verwendung von Strecken- und Intensitätsmessungen für die Bewegungsbestimmung. Dabei wird die Bewegungsbestimmung sowohl von einer bewegten Kamera als auch von mehreren sich unabhängig bewegenden Objekten untersucht. Die gemeinsame Verarbeitung der Entfernungs- und Intensitätsmessungen wird über Range-Flow und Optical-Flow-Bedingungen realisiert. Der in Entfernungsbildern formulierte Range-Flow und der in Intensitätsbildern formulierte Optical-Flow verwenden sehr ähnliche mathematische Beschreibungen. Daher lassen sich beide sehr gut in einer gemeinsamen Parameterschätzung zusammenfassen. Anhand dieser Flow-Algorithmen wird zuerst die relative Orientierung eines Paars von aufeinanderfolgenden Bildern bestimmt. Dabei wird ein hochgradig überbestimmtes Gleichungssystem gelöst um die sechs Parameter der relativen Orientierung zu berechnen. Die Trajektorie der bewegten Kamera ergibt sich dann aus der Sequenz aller paarweise berechneten relativen Orientierungen. Diese paarweise Aneinanderreihung führt zu einer Aufsummierung von Fehlern, was sich in einem Gangfehler in der berechneten Trajektorie niederschlägt. Um dieses Problem zu lösen und somit eine global konsistente Trajektorie zu bestimmen, werden die Ergebnisse aller relativen Orientierungen in einer gemeinsamen Bündelblockausgleichung eingeführt. Für die Schätzung einer global konsistenten Trajektorie ist es wichtig denselben Objektbereich mehrmals zu erfassen und diese so entstehenden Schleifenschlüsse zu identifizieren. Für Letzteres werden eindeutige Merkmale in den Bildern extrahiert und gematcht. In Innenraumbereichen können diese Merkmale selten auftreten wenn die Umgebung entweder einfärbig ist oder über sich wiederholende Muster verfügt. In solchen Szenarien sind die Extraktion und das Matching von robusten Merkmalen somit sehr schwierig. In dieser Arbeit wird dieses Problem durch die geschätzten relativen Orientierungen in der Bündelblockausgleichung gelöst. Somit kann die Orientierung auch dann noch genau geschätzt werden, wenn die Anzahl der Merkmale gering oder deren Verteilung ungünstig ist. Der vorgestellte Algorithmus wird anhand einer öffentlichen Datenbank an Bildern getestet. Die Einordnung der Performance des Algorithmus in die dort veröffentlichten Vergleichswerte ("Benchmark") zeigt, dass er sich im Vergleich zu anderen aktuellen Methoden sehr gut hält. Die weitere Analyse anhand der Varianz-Komponenten-Schätzung in der Bündelblockausgleichung hat gezeigt, dass die original geschätzten Genauigkeitswerte der relativen Orientierung viel zu optimistisch ausfallen. Im letzten Teil der Arbeit wird eine Methode vorgestellt, wie anhand einer statischen Kamera die Trajektorien von sich unabhängig voneinander bewegenden Objekten bestimmt werden kann. Auch hier wird wieder auf die gemeinsame Verwendung von Range-Flow und Optical-Flow zurückgegriffen. Die Bestimmung erfolgt in zwei Schritten. Im ersten Schritt werden lokale Bewegungsvektoren berechnet. Im zweiten Schritt werden diese einer globalen Optimierung unterzogen wodurch sich dann ein geglättetes dichtes Feld von Bewegungsvektoren ergibt. Der Vorteil dieses Zugangs liegt darin, dass es auf ein lineares Gleichungssystem führt, welches iterativ gelöst wird um grobe Fehler zu entfernen. Den Abschluss der Arbeit bildet ein praktisches Beispiel, bei dem die Bewegungsvektoren aufgrund eines Erdrutsches aus multi-temporalen Laserdaten bestimmt werden. Die Berechnung verwendet den Range-Flow und wendet diesen auf rasterbasierte digitale Oberflächenmodelle an. Zusammenfassend wurde in dieser Arbeit gezeigt, dass die gemeinsame Verwendung von Entfernungs- und Intensitätsmessungen, die Kombination von lokalen und globalen Modellen und die Berücksichtigung der stochastischen Eigenschaften der Messungen bei der Parameterschätzung durchführbar und auch von Vorteil sind.de
dc.description.abstractIn recent years, low cost, high frame rate 3D or range cameras, which simultaneously provide distance and intensity information have become commercially available. These cameras have gained a lot of interest in numerous applications. Indoor mapping and autonomous mobile navigation are two example applications, which have a lot of potential for such cameras. Motion estimation is an integral part of these applications. Therefore, it is vital to investigate methods and techniques for motion estimation, which can exploit the simultaneous availability of range and intensity information provided by these 3D cameras. This thesis investigates the integration of range and intensity data for the task of motion estimation. The motion estimation of a moving camera and motion estimation of independently moving objects are both investigated. The integration of range and intensity information is realized using range flow and optical flow constraints, which have been used for motion estimation in range and intensity images respectively. Range flow and optical flow lead to similar mathematical formulations, therefore they are well integrated into one estimation problem. Using these \textit{flow} algorithms, first a method of estimating relative orientation of a pair of camera frames is presented. A highly over determined system of equations is solved for estimating the six parameters of relative orientation between two frames of the range camera. The trajectory of the moving camera is then computed using sequentially estimated pair wise relative orientations. The concatenation of sequential pair wise orientations lead to drift and accumulation of errors which does not give a globally consistent trajectory. To solve this problem, a method utilizing relative orientations results in bundle adjustment is presented. Matching distinctive features in images helps to identify loop closures and revisit of an area, which is essential in obtaining a globally consistent trajectory. However, in indoor environments features may be sparse and due to similar looking environment robust feature matching can be very challenging. Thus, the solution proposed in this thesis, utilizes the estimated relative orientations in the bundle adjustment. So, even when the feature points are low in number and not well distributed across the image, the orientation can still be accurately estimated by using information from the relative orientation. The proposed algorithm is evaluated on a publicly available dataset and benchmark, which shows that the algorithm performs well in comparison to the state of the art algorithm. Furthermore, using variance component analysis in bundle adjustment, it is shown that the original accuracy estimates of the relative orientation are far too optimistic. Furthermore, this thesis presents a method for dense 3D motion estimation of independently moving objects with a static camera, which is also based on the integration of range flow and optical flow constraints. This method is based on two steps, in the first step the motion is estimated locally, while in the second step a global regularization is performed, which leads to smooth dense flow vectors. The advantage of such an approach is that it leads to a linear equation system, which is then iteratively solved to remove the outliers. In the end, an example of motion estimation on a landslide is presented. The motion estimation is realized using range flow constraint, which is applied on raster based digital surface models generated from the multi-temporal laser scanning data of a landslide surface. The thesis demonstrates the feasibility and the benefits of integrating range and intensity data, of combining global and local models, and finally of considering stochastic properties of the measurements in the parameter estimation.en
dc.formatXI, 92 S.-
dc.languageEnglish-
dc.language.isoen-
dc.subjectKamera-Orientierung \ Bewegungsschätzung \ Range-Kamera\ RGB-D Kamera \ Microsoft Kinect\ Bündelblockausgleichung \Range Flow \ Optical Flow \ Simultaneous Localization And Mapping (SLAM)de
dc.subjectCamera Orientation \ Motion estimation \ Range Camera\ RGB-D Camera \Microsoft Kinect \ Bundle Block Adjustment \Range Flow \ Optical Flow \ Simultaneous Localization And Mapping (SLAM)en
dc.titleMotion estimation from integration of range and intensity dataen
dc.title.alternativeMotion Estimation from Integration of Range and Intensity Datade
dc.typeThesisen
dc.typeHochschulschriftde
tuw.publication.orgunitE120 - Department für Geodäsie und Geoinformation-
dc.type.qualificationlevelDoctoral-
dc.identifier.libraryidAC11731608-
dc.description.numberOfPages92-
dc.identifier.urnurn:nbn:at:at-ubtuw:1-74998-
dc.thesistypeDissertationde
dc.thesistypeDissertationen
item.openairetypeThesis-
item.openairetypeHochschulschrift-
item.openaccessfulltextOpen Access-
item.languageiso639-1en-
item.openairecristypehttp://purl.org/coar/resource_type/c_18cf-
item.openairecristypehttp://purl.org/coar/resource_type/c_18cf-
item.grantfulltextopen-
item.fulltextwith Fulltext-
item.cerifentitytypePublications-
item.cerifentitytypePublications-
Appears in Collections:Thesis

Files in this item:


Page view(s)

34
checked on Jul 25, 2021

Download(s)

129
checked on Jul 25, 2021

Google ScholarTM

Check


Items in reposiTUm are protected by copyright, with all rights reserved, unless otherwise indicated.