<div class="csl-bib-body">
<div class="csl-entry">Unterguggenberger, J. (2016). <i>Realistic rendering in mobile augmented reality</i> [Diploma Thesis, Technische Universität Wien]. reposiTUm. https://doi.org/10.34726/hss.2016.34153</div>
</div>
-
dc.identifier.uri
https://doi.org/10.34726/hss.2016.34153
-
dc.identifier.uri
http://hdl.handle.net/20.500.12708/6393
-
dc.description
Abweichender Titel nach Übersetzung der Verfasserin/des Verfassers
-
dc.description
Zusammenfassung in deutscher Sprache
-
dc.description.abstract
Augmented Reality (AR)-Applikationen kombinieren eine Sicht auf eine Echtweltumgebung mit computergenerierten Objekten in Echtzeit. Je nach AR-Applikation ist es wünschenswert, die visuelle Kohärenz der computergenerierten Bilder zu den Bildern aus der echten Welt zu maximieren. Um dies zu erreichen, müssen die virtuellen Objekte so realistisch wie möglich gerendert werden. In dieser Diplomarbeit wird eine bildbasierte Beleuchtungsmethode (image-based lighting (IBL)) präsentiert, um virtuelle Objekte auf mobilen Geräten mit Beleuchtungsinformationen aus der echten Welt realistisch zu rendern. Die präsentierte Technik nutzt im ersten Schritt die Kamera und die Bewegungssensoren eines mobilen Gerätes, um ein omnidirektionales Bild der Umgebung mit hohem Dynamikumfang (high dynamic range (HDR)) aufzunehmen und in einer Environment-Map zu speichern. Im zweiten Schritt wird diese aufgenommene Environment-Map für das Rendering mit unterschiedlichen Materialien vorbereitet, indem mehrere Varianten der ursprünglichen Environment-Map berechnet werden, die je nach Material zum Rendern ausgewählt werden. Die Map, welche diffuse Beleuchtungsinformationen beinhaltet, heißt Irradiance-Map und die Maps, die spiegelnde oder glänzende Beleuchtungsinformationen beinhalten, werden Reflection-Maps genannt. Die Berechnung dieser Maps entspricht einer gewichteten Faltung nach einem bestimmten Beleuchtungsmodell, wobei die korrekte Menge an einfallendem Licht aus allen Richtungen in die Berechnungen miteinbezogen wird. Wie diese Berechnungen effizient auf mobilen Geräten durchgeführt werden können ist der Hauptbeitrag dieser Diplomarbeit. Es werden mehrere Herangehensweisen zur Durchführung dieser Berechnungen präsentiert, deren Eigenschaften, Resultate, Stärken und Schwächen werden analysiert sowie Optimierungen beschrieben. Wir beschreiben drei verschiedene Methoden zur Berechnung der Irradiance- und Reflection Maps und beschreiben diese detailiert: Die akkurate Berechnung, eine MIP-Mapping basierte Approximation, sowie eine Berechnung im Frequenzbereich basierend auf Spherical Harmonics (SH). Wir beschreiben detailiert die Implementierungen, präsentieren Analysen und diskutieren jede dieser drei Methoden hinsichtlich ihrer Eigenschaften und Beschränkungen im Hinblick auf mobile Geräte. Des Weiteren wird beschrieben, wie die berechneten Maps in IBL-Rendering genutzt und mit gängigen Echtzeit-Renderingeffekten kombiniert werden können, um eine hohe visuelle Kohärenz von virtuellen Objekten in AR-Szenen zu erreichen. Das wichtigste Novum dieser Diplomarbeit ist der Fokus auf die Möglichkeiten von mobilen Geräten und die Eigenschaft, dass alle Schritte auf einem einzigen handelsüblichen mobilen Gerät durchgeführt werden können: vom Aufnehmen der Environment-Map an einem bestimmten Punkt im Raum, über die Berechnung der Irradiance- und Reflection-Maps, bis hin zum Rendern der virtuellen Objekte mit den berechneten Maps in einer AR-Szene.
de
dc.description.abstract
Augmented Reality (AR) applications combine a view of a physical, real-world environment with computer-generated objects and effects in real-time. Depending on the application, it is desirable to maximize the visual coherence of the virtual objects compared to the real-world image. To achieve this goal, virtual objects have to be rendered as realistically as possible. This thesis presents an image-based lighting (IBL) technique for realistic rendering of virtual objects on mobile devices which uses lighting information from the real-world environment. In the first step, the presented technique uses a mobile device's camera and motion sensors to capture an omni-directional image of the surrounding in high dynamic range (HDR) and stores it in an environment map. In the second step, the captured environment map is prepared for rendering with different materials by calculating a set of maps. During rendering, the most suitable of these maps are selected for each material and used for shading a virtual object with the specific material. The map which contains diffuse illumination information is called irradiance map, and the maps which contain glossy or specular illumination information are called reflection maps. The calculation of the maps corresponds to a weighted convolution. The weighting is determined by a reflection model which takes the correct amount of incident lighting from all directions into account. How these calculations can be performed efficiently on mobile devices is the main focus of this thesis. Multiple approaches to perform the calculations are described. Their properties, results, strengths and weaknesses are analyzed and optimizations are proposed. We describe three different approaches for the calculation of irradiance and reflection maps in this thesis: the accurate calculation, a MIP-mapping based approximation method, and calculation via spherical harmonics (SH) frequency space. We provide detailed implementation instructions, analyses, and discussions for each of these approaches with regard to the properties and limitations of mobile devices. Furthermore, we describe how the calculated maps can be used with IBL rendering and be combined with established rendering techniques to achieve a high degree of visual coherence of virtual objects in AR scenes. The main novelty of this thesis is its focus on the capabilities of mobile devices. We describe how to do all steps on a single commodity mobile device: From capturing the environment at a certain point in space, to calculating the irradiance and reflection maps, and finally rendering virtual objects using the calculated maps in an AR scene.
en
dc.language
English
-
dc.language.iso
en
-
dc.rights.uri
http://rightsstatements.org/vocab/InC/1.0/
-
dc.subject
Realistisches Rendering
de
dc.subject
Augmented Reality
de
dc.subject
mobilen Geräten
de
dc.subject
Realistic Rendering
en
dc.subject
Augmented Reality
en
dc.subject
Mobile Devices
en
dc.title
Realistic rendering in mobile augmented reality
en
dc.title.alternative
Realistisches Rendering für Augmented Reality auf mobilen Geräten
de
dc.type
Thesis
en
dc.type
Hochschulschrift
de
dc.rights.license
In Copyright
en
dc.rights.license
Urheberrechtsschutz
de
dc.identifier.doi
10.34726/hss.2016.34153
-
dc.contributor.affiliation
TU Wien, Österreich
-
dc.rights.holder
Johannes Unterguggenberger
-
dc.publisher.place
Wien
-
tuw.version
vor
-
tuw.thesisinformation
Technische Universität Wien
-
dc.contributor.assistant
Kán, Peter
-
tuw.publication.orgunit
E188 - Institut für Softwaretechnik und Interaktive Systeme
-
dc.type.qualificationlevel
Diploma
-
dc.identifier.libraryid
AC13386809
-
dc.description.numberOfPages
113
-
dc.identifier.urn
urn:nbn:at:at-ubtuw:1-92870
-
dc.thesistype
Diplomarbeit
de
dc.thesistype
Diploma Thesis
en
tuw.author.orcid
0000-0001-6453-8158
-
dc.rights.identifier
In Copyright
en
dc.rights.identifier
Urheberrechtsschutz
de
tuw.advisor.staffStatus
staff
-
tuw.assistant.staffStatus
staff
-
tuw.advisor.orcid
0000-0002-0322-9869
-
item.languageiso639-1
en
-
item.grantfulltext
open
-
item.cerifentitytype
Publications
-
item.openairetype
master thesis
-
item.openairecristype
http://purl.org/coar/resource_type/c_bdcc
-
item.fulltext
with Fulltext
-
item.mimetype
application/pdf
-
item.openaccessfulltext
Open Access
-
crisitem.author.dept
E193-02 - Forschungsbereich Computer Graphics
-
crisitem.author.orcid
0000-0001-6453-8158
-
crisitem.author.parentorg
E193 - Institut für Visual Computing and Human-Centered Technology