Title: Omnidirectional stereo rendering of virtual environments
Language: English
Authors: Meindl, Lukas 
Qualification level: Diploma
Advisor: Wimmer, Michael  
Assisting Advisor: Fuhrmann, Anton 
Issue Date: 2015
Number of Pages: 102
Qualification level: Diploma
Abstract: 
Diese Arbeit beschäftigt sich mit omnidirektionalem Stereo (Omnistereo) Rendering von virtuellen Umgebungen. Wir schlagen eine Technik vor mit der Artefakt-freie, anhand der modernen Rendering-Pipeline und GPU-basierter Tessellierung, Omnistereo Bilder für CAVE Systeme in Echtzeit erzeugt werden können. Raumwahrnehmung in stereoskopischen Bildern wird durch horizontale Disparitäten zwischen dem linken und rechten Auge erzeugt. Konventionelles Stereo-Rendering, auf der Basis von Off-Axis oder Toe-In Projektionen, liefert korrekte Hinweisreize für die Tiefe in dem gesamten Blickfeld für eine gegebene Blickrichtung. Omnistereo Panorama Bilder, welche durch Aufnahmen der realen Welt erzeugt werden, liefern hingegen Hinweisreize für die Tiefe in alle Blickrichtungen. Dieses Konzept wurde für Rendering angepasst, wodurch mehrere Techniken entstanden sind um Omnistereo Bilder aus virtuellen Umgebungen zu erstellen. Diese Methode ist für Bildschirmsysteme die den Nutzer komplett umgeben von Relevanz, da hierbei eine gleichzeitige Raumwahrnehmung im gesamten 360° Panorama für aufrecht positionierte Beobachter erzeugt werden kann. Omnistereo Rendering kann zudem ohne Kopfrotations-Tracking verwendet werden, da die Projektion unabhängig von der Blickrichtung ist, was bei konventionellen Stereo Projektionen nicht der Fall ist. Omnistereo Projektionen liefern hingegen aber nur im Zentrum der jeweiligen Blickrichtung korrekte Hinweisreize für die Tiefe. Stereo- Disparitätsverzerrungsfehler entstehen zunehmend in der Peripherie der Blickrichtung. Eigenschaften des menschlichen visuellen Systems machen diese Fehler aber kaum bemerkbar. Wir haben eine bestehende Object-Warping Omnistereo Rendering Technik für CAVEs verbessert, indem wir sie mit Screen-Space adaptiven Tessellierungsmethoden erweitert haben. Die Technik erzeugt Bilder ohne die zuvor wahrnehmbaren Artefakte und läuft auf der GPU in Echtzeit. Die Artefakte der ursprünglichen Technik ohne der Tessellierung wurden durch uns beschrieben. Tessellierung verringert die Kantenkrümmungsund Texturinterpolationsartefakte, die bei großen Polygonen, aufgrund der Non-Linearität der Omnistereo Perspektive, entstehen. Der originale Ansatz der Technik basiert auf Off- Axis Projektionen. Wir haben gezeigt, dass On-Axis Projektionen auch als Basis verwendet werden können und die resultierenden Omnistereo Bilder ident sind. Außerdem haben wir eine Methode entwickelt Omnistereo Skyboxes in der CAVE mittels eines vortessellierten Vollbild-Meshes effizient darzustellen. Wir haben die Omnistereo Techniken als Teil einer Anwendung für den drei-wandigen CAVE des VRVis Forschungszentrum umgesetzt und aufgrund dieser Anwendung die Techniken miteinander verglichen

In this thesis we discuss the use of omnidirectional stereo (omnistereo) rendering of virtual environments. We present an artefact-free technique to render omnistereo images for the CAVE in real time using the modern rendering pipeline and GPU-based tessellation. Depth perception in stereoscopic images is enabled through the horizontal disparities seen by the left and right eye. Conventional stereoscopic rendering, using off-axis or toe-in projections, provides correct depth cues in the entire field of view (FOV) for a single view-direction. Omnistereo panorama images, created from captures of the real world, provide stereo depth cues in all view direction. This concept has been adopted for rendering, as several techniques generating omnistereo images based on virtual environments have been presented. This is especially relevant in the context of surround-screen displays, as stereo depth can be provided for all view directions in a 360° panorama simultaneously for upright positioned viewers. Omnistereo rendering also lifts the need for view-direction tracking, since the projection is independent of the view direction, unlike stereoscopic projections. However, omnistereo images only provide correct depth cues in the center of the FOV. Stereo disparity distortion errors occur in the periphery of the view and worsen with distance from the center of the view. Nevertheless, due to a number of properties of the human visual system, these errors are not necessarily noticeable. We improved the existing object-warp based omnistereo rendering technique for CAVE display systems by preceding it with screen-space adaptive tessellation methods. Our improved technique creates images without perceivable artefacts and runs on the GPU at real-time frame rates. The artefacts produced by the original technique without tessellation are described by us. Tessellation is used to remedy edge curvature and texture interpolation artefacts occurring at large polygons, due to the non-linearity of the omnistereo perspective. The original approach is based on off-axis projections. We showed that on-axis projections can be used as basis as well, leading to identical images. In addition, we created a technique to efficiently render omnistereo skyboxes for the CAVE using a pre-tessellated full-screen mesh. We implemented the techniques as part of an application for a three-walled CAVE in the VRVis research center and compared them.
Keywords: virtual reality; non-linear perspective; tessellation; omnistereo rendering
URI: https://resolver.obvsg.at/urn:nbn:at:at-ubtuw:1-85735
http://hdl.handle.net/20.500.12708/4093
Library ID: AC12685307
Organisation: E186 - Institut für Computergraphik und Algorithmen 
Publication Type: Thesis
Hochschulschrift
Appears in Collections:Thesis

Files in this item:


Page view(s)

11
checked on Jul 10, 2021

Download(s)

75
checked on Jul 10, 2021

Google ScholarTM

Check


Items in reposiTUm are protected by copyright, with all rights reserved, unless otherwise indicated.