Machegger, L. (2025). Detection of High Malign Areas In- and Outside of Gliomas with Diffusion Tensor Imaging [Diploma Thesis, Technische Universität Wien]. reposiTUm. https://doi.org/10.34726/hss.2025.44861
Hintergrund: Glioblastoma multiforme (GBM) ist die aggressivste Form der Hirntumoren, gekennzeichnet durch schnelles Wachstum und Infiltration in umliegendes Hirngewebe. Eine präzise Segmentierung von GBM, insbesondere der pathologischen Kontrastmittelaufladung und des nekrotischen Kerns, ist entscheidend für die chirurgische Planung und Behandlung. Manuelle Segmentierung ist zeitaufwändig und unterliegt hoher Interrater-Variabilität, dies erfordert automatisierte Ansätze.Ziel: Diese Arbeit optimiert wichtige Parameter in der Deep-Learning-Segmentierung von Glioblastomen. Der Fokus liegt auf Batch-Größe, Datenaugmentierung und der Anzahl der Trainingsfälle sowie der Abstimmung des fokalen Gewichtsfaktors in der kombinierten Verlustfunktion. Ziel ist es, die Genauigkeit der Segmentierung klinisch relevanter Tumorregionen zu verbessern.Methoden: 3D U-Net-Modelle wurden mit dem BraTS Challenge-Datensatz trainiert, der multimodale MRT-Scans (T1 post-Kontrast, FLAIR, T2) enthält, die von einem Neuroradiologen überarbeitet wurden, um Interrater-Variabilität zu eliminieren. Die Modelle wurden an 108 Patienten des Universitätsklinikums Salzburg getestet, um Generalisierungsfähigkeit und Leistung zu bewerten. Die Genauigkeit wurde mit Intersection-over-Union (IoU) und einem benutzerdefinierten gewichteten Dice-Score gemessen, wobei der Fokus auf den Dice-Koeffizienten der Kontrastmittelaufladung und des nekrotischen Kerns lag. Vier Fallgruppen (80, 160, 240, 314 Fälle) wurden untersucht, um den Einfluss der Fallzahl auf die Leistung zu analysieren.Ergebnisse: Modelle mit Batch-Größe 4 gehörten konsistent zu den besten, 80% davon unter den Top 10. Größere Batch-Größen führten zu besserer Generalisierung und Stabilität bei steigender Fallzahl. Augmentierungen führten in der Regel zu schlechteren Ergebnissen, außer beim besten Modell, das mit einem 1:1-Verhältnis von Augmentierungen zu Originalen, Fallgruppe 314 und einer Batch-Größe von 1 trainiert wurde und außergewöhnlich gut abschnitt.Fazit: Augmentierungen mit einem 1:3-Verhältnis schnitten schlecht ab, besonders, wenn drei Varianten eines Originals in einer Batch von 4 waren, was zu Overfitting führte. Ein Mangel an Diversität innerhalb der Batches verursachte Overfitting, während eine Strategie, die verschiedene Augmentierungen mischte, besser generalisierte. Modelle der Fallgruppe 314 erzielten die besten Ergebnisse, was die Bedeutung größerer Datenmengen für eine verbesserte Leistung zeigt.
de
Background: Glioblastoma multiforme (GBM) is the most aggressive form of brain cancer, characterized by rapid growth and infiltration into surrounding brain tissue. Precise segmentation of GBM, particularly the contrast-enhancing region and necrotic (non-contrast-enhaning) core, is critical for surgical planning and treatment. Manual segmentation methods are time-consuming and subject to high interrater variability, necessitating automated approaches for greater consistency.Objective: This thesis aims to optimize key parameters in deep learning-based segmentation of glioblastomas, focusing on the impact of Batch size, data augmentation strategies, and the number of training cases on model performance, along with tuning the Focal Weight Factor in the Combined Loss Function. The goal is to improve the accuracy of segmenting clinically relevant tumor regions.Methods: In this study, 3D U-Net models were trained using the BraTS Challenge dataset, which includes multimodal MRI scans (T1 post-contrast, FLAIR, and T2) with expert-labeled segmentations reviewed by a neuroradiologist to eliminate interrater variability. The models were evaluated on 108 unseen clinical cases from patients at the University Hospital Salzburg to assess their generalization capability and performance. Segmentation accuracy was measured using Intersection over Union (IoU) and a Custom Weighted Dice Score, focusing on Dice coefficients for the contrast-enhancing and non-contrast-enhancing tumor. Four Case Groups (80, 160, 240, and 314) were used to examine the effect of Case Group size on performance.Results: Models trained with Batch size of four consistently ranked among the top performers, with 80% making it into the top 10, suggesting that larger Batch sizes contribute to better generalization and stability as number of training cases increase. However, augmentations generally resulted in worse performance, except for one outlier—the best performing model—trained with a 1:1 ratio of augmentations to originals, Case Group 314, and a Batch size of one, which performed exceptionally well.Conclusion: Augmentations with a ratio of 1:3 performed poorly, particularly when three variants of one original were included in a Batch size of four, leading to overfitting. This suggests a lack of diversity within the batches caused the model to overfit, whereas a strategy mixing different augmentations within each batch led to better generalization. Case Group 314 models performed best, highlighting the importance of more training data for improved performance.
en
Weitere Information:
Arbeit an der Bibliothek noch nicht eingelangt - Daten nicht geprüft Abweichender Titel nach Übersetzung der Verfasserin/des Verfassers