Berührungssensitive Eingabegeräte, wie etwa Tablet PCs, erleben seit einiger Zeit einen starken Aufschwung. Vorallem für Skizzen- oder Zeichenarbeiten lässt sich der Arbeitsprozess durch diese neuen Eingabegeräte stark optimieren.<br />Diese Diplomarbeit stellt eine Integration genannter neuer Technologien in ein Volumenvisualisierungssystem vor. Ziel ist hierbei eine Lösung für ein häufiges Problem der Volumensvisualisierung: das Selektieren spezieller Strukturen die nicht durch die Transferfunktion separierbar sind.<br />Durch eine gesten-gesteuerte Benutzeroberfläche wird ein schneller und reibungsloser Arbeitsprozess gewährleistet ohne dabei die Aufmerksamkeit des Benutzers vom Hauptarbeitsbereich abzulenken. Weiters wird dem Benutzer durch ein intuitives Modellierungsverfahren ermöglicht 3D Modelle aus zweidimensionalen Eingabepfaden zu erstellen. Die erstellten Modelle dienen als eine Startselektion einer gewünschten Struktur im Volumensdatensatz.<br />Diese Startselektion wird in Folge durch ein Modellverformungsverfahren automatisch an die Volumensstrukturen angepasst und resultiert in einer Selektion einer bestimmten Region des Volumens.<br />Durch diese Kombination von verschiedenen Techniken können Selektionen in einem Volumensdatensatz schnell und intuitiv erreicht werden. Das Ergebnis kann in Folge zur Maskierung, Beschneidung oder Segmentierung der Volumensstrukturen verwendet werden.<br />
de
dc.description.abstract
In the recent years the use of touch-sensitive input devices (e.g., tablet devices) heavily increased. Especially for drawing or sketching tasks, these devices - in combination with new user interface approaches - yield many possibilities to optimize traditional workflows.<br />This thesis provides an approach for integrating this new user interfaces techniques into a volume visualization framework. The main goal is to account for the frequently encountered task of selecting specic structures of interest in a volume dataset which can not be separated by a transfer function setup. First, a gesture-based user interface is incorporated to build up a fluid and intuitive workflow without disrupting the user's attention from the main working area. Further, a sketch-based modelling approach allows the user to easily generate 3D models out of 2D input sketches. These models serve as an initial selection on a structure of interest within a volume dataset. To automatically fit the generated models on the volume features, we present an algorithm for automatic deformation of mesh models on volume structures, resulting in a good approximation of the specific area.<br />This flexible combination of techniques allows the user to achieve selections in a volume dataset within minutes of work. These can subsequently be used for masking, cropping or segmentation operations on the volume.
en
dc.language
English
-
dc.language.iso
en
-
dc.rights.uri
http://rightsstatements.org/vocab/InC/1.0/
-
dc.subject
Volumensvisualisierung
de
dc.subject
Gesten
de
dc.subject
Modellierung
de
dc.subject
sketch-based
en
dc.subject
modelling
en
dc.subject
deformable
en
dc.subject
visualization
en
dc.subject
gestures
en
dc.title
Sketch-based modelling for volume visualization
en
dc.type
Thesis
en
dc.type
Hochschulschrift
de
dc.rights.license
In Copyright
en
dc.rights.license
Urheberrechtsschutz
de
dc.contributor.affiliation
TU Wien, Österreich
-
dc.rights.holder
Nicolas Pühringer
-
tuw.version
vor
-
tuw.thesisinformation
Technische Universität Wien
-
dc.contributor.assistant
Bruckner, Stefan
-
tuw.publication.orgunit
E186 - Institut für Computergraphik und Algorithmen