<div class="csl-bib-body">
<div class="csl-entry">Ginzinger, F. (2024). <i>Real-time motion correction in CBCT reconstructions using a mobile CBCT device</i> [Diploma Thesis, Technische Universität Wien]. reposiTUm. https://doi.org/10.34726/hss.2024.89785</div>
</div>
-
dc.identifier.uri
https://doi.org/10.34726/hss.2024.89785
-
dc.identifier.uri
http://hdl.handle.net/20.500.12708/195795
-
dc.description
Abweichender Titel nach Übersetzung der Verfasserin/des Verfassers
-
dc.description.abstract
Cone-Beam-Computertomographie (CBCT) ist eine leistungsstarke medizinische Bildgebungstechnik, jedoch sehr anfällig für Bewegungsartefakten. Unfreiwillige Patientenbewegungen wie das Atmen können zu unscharfen und verzerrten Bildern führen, wodurch auch die diagnostische Genauigkeit beeinträchtigt wird. Die Bewältigung dieser Herausforderung erfordert ein Echtzeit-Bewegungskompensationssystem, das in der Lage ist, sowohl Patienten- als auch systeminduzierte Bewegungen während CBCT-Scans zuerkennen und zu korrigieren. In dieser Masterarbeit wird die Entwicklung und Implementierung eines Stereo-Vision-Systems zur Erkennung und Kompensation von Bewegungen in CBCT-Scans vorgestellt. Die Arbeit beginnt mit der Untersuchung verschiedener Kameratechnologien und identifiziert Infrarot (IR)-Bildgebung in Kombination mit IR-Markern am Patienten als optimale Lösung. Dieser Ansatz bietet Robustheit, hohe Zuverlässigkeit und Echtzeitfähigkeit. Das vorgeschlagene System erreicht die Echtzeitsynchronisation von getrackten IR Markern, die mit bis zu 240 Hz erfasst werden, mit CT-Projektionen. Diese synchronisierten Daten fügen sich nahtlos in die CBCT-Rekonstruktionspipeline ein und ermöglichen eine bewegungskompensierte Volumenrekonstruktion, wodurch die Notwendigkeit einer weiteren Aufnahme entfällt und so die Strahlenexposition des Patienten reduziert wird. Die Evaluierungsphase zeigt die Fähigkeit des Systems, in verschiedenen Testszenarien scharfe Bildrekonstruktionen auch bei großen Bewegungsamplituden zu erzeugen. Experimente mit dem CatPhan-Phantom bestätigen, dass das System trotz erheblicher Bewegung während der Aufnahme eine Bildqualität liefert, die mit Scans ohne Bewegung vergleichbar ist. Darüber hinaus zeigt eine neuartige geometrische Evaluierungsmethode, die Systembewegung und Deep-Learning-Segmentierung einsetzt, eine Trackinggenauigkeit im Submillimeterbereich. Diese Ergebnisse zeigen das hohe Potential des Systems und erweitern den Anwendungsbereich weit über den der Patientenbewegungskompensation hinaus.
de
dc.description.abstract
Cone-beam computed tomography (CBCT) is a powerful medical imaging technique, but it is prone to motion that can compromise image quality and diagnostic accuracy. Involuntary patient motions such as breathing can result in blurry and distorted images.Addressing this challenge requires a real-time motion compensation system capable of detecting and correcting both patient and system-induced motion during CBCT scans.This master’s thesis introduces the development and implementation of a stereo vision system designed to detect and compensate for motion in CBCT acquisitions. The studybegins by investigating various camera technologies and identifies infrared (IR) imaging paired with IR markers on the patient as the optimal solution. This approach offers robustness, high reliability, and real-time capabilities.The proposed system achieves real-time synchronization of tracking data, captured at up to 240Hz, with CT projections. This synchronized data seamlessly integrates into the CBCT reconstruction pipeline, enabling motion-compensated volume reconstruction without the need for reacquisition, thus minimizing patient radiation exposure.The evaluation phase demonstrates the system’s ability to produce sharp image reconstructions across diverse setups, even in the presence of substantial motion amplitudes. Experiments conducted with the CatPhan phantom confirm that the system maintains overall image quality comparable to scans without motion, despite significant motion during acquisition. Furthermore, a novel geometric evaluation method, employing system motion and deep learning segmentation, reveals sub-millimeter tracking accuracy. This assessment enhances the system’s reliability and unveils its potential clinical applications, extending far beyond patient motion compensation to encompass various medical imaging challenges.
en
dc.language
English
-
dc.language.iso
en
-
dc.rights.uri
http://rightsstatements.org/vocab/InC/1.0/
-
dc.subject
CBCT
de
dc.subject
Bewegungkorrektur
de
dc.subject
IR Kameras
de
dc.subject
Stereovision
de
dc.subject
IR Tracking
de
dc.subject
CBCT
en
dc.subject
Motion compensation
en
dc.subject
IR cameras
en
dc.subject
stereovision
en
dc.subject
IR tracking
en
dc.title
Real-time motion correction in CBCT reconstructions using a mobile CBCT device
en
dc.title.alternative
Echtzeitbewegungskorrektur in CBCT Rekonstruktionen unter Verwendung eines mobilen CBCT-Gerätes
de
dc.type
Thesis
en
dc.type
Hochschulschrift
de
dc.rights.license
In Copyright
en
dc.rights.license
Urheberrechtsschutz
de
dc.identifier.doi
10.34726/hss.2024.89785
-
dc.contributor.affiliation
TU Wien, Österreich
-
dc.rights.holder
Felix Ginzinger
-
dc.publisher.place
Wien
-
tuw.version
vor
-
tuw.thesisinformation
Technische Universität Wien
-
tuw.publication.orgunit
E193 - Institut für Visual Computing and Human-Centered Technology
-
dc.type.qualificationlevel
Diploma
-
dc.identifier.libraryid
AC17111260
-
dc.description.numberOfPages
101
-
dc.thesistype
Diplomarbeit
de
dc.thesistype
Diploma Thesis
en
dc.rights.identifier
In Copyright
en
dc.rights.identifier
Urheberrechtsschutz
de
tuw.advisor.staffStatus
staff
-
tuw.advisor.orcid
0000-0002-5217-2854
-
item.languageiso639-1
en
-
item.openairetype
master thesis
-
item.openairecristype
http://purl.org/coar/resource_type/c_bdcc
-
item.grantfulltext
open
-
item.cerifentitytype
Publications
-
item.fulltext
with Fulltext
-
item.mimetype
application/pdf
-
item.openaccessfulltext
Open Access
-
crisitem.author.dept
E193-01 - Forschungsbereich Computer Vision
-
crisitem.author.parentorg
E193 - Institut für Visual Computing and Human-Centered Technology