<div class="csl-bib-body">
<div class="csl-entry">Szabó, P. (2025). <i>Evasion Resilience in Variational Bottleneck Injected Deep Neural Networks</i> [Diploma Thesis, Technische Universität Wien]. reposiTUm. https://doi.org/10.34726/hss.2025.124403</div>
</div>
-
dc.identifier.uri
https://doi.org/10.34726/hss.2025.124403
-
dc.identifier.uri
http://hdl.handle.net/20.500.12708/213420
-
dc.description
Arbeit an der Bibliothek noch nicht eingelangt - Daten nicht geprüft
-
dc.description
Abweichender Titel nach Übersetzung der Verfasserin/des Verfassers
-
dc.description.abstract
Tiefe neuronale Netzwerke (Deep Neural Networks, DNNs) sind in verschiedenen Anwendungen allgegenwärtig geworden, jedoch sind sie äußerst anfällig für adversarielle Angriffe, die ihre Ausgaben leicht manipulieren können. Diese Arbeit untersucht das Potenzial von variationalen Bottleneck-Techniken, insbesondere des Deep Variational Information Bottleneck (DVBI) und des Shallow Variational Bottleneck Injection (SVBI), um die Robustheit von DNNs gegenüber adversariellen Umgehungsangriffen zu erhöhen. Wir führen eine empirische Studie durch, in der Modelle, die mit SVBI, DVBI und traditionellen Architekturen ohne Bottlenecks trainiert wurden, verglichen und ihre Widerstandsfähigkeit gegenüber den neuesten Umgehungsangriffen, einschließlich der FGSM-, EAD-, C\&W- und JSMA-Angriffe, analysiert werden. Unsere Forschung bewertet den Einfluss der Platzierung des Bottlenecks auf die Robustheit gegen adversarielle Angriffe und untersucht die Beziehung zwischen Netzwerktiefe und Widerstandsfähigkeit. Die Ergebnisse heben die Wirksamkeit bestimmter variationaler Bottleneck-Strategien zur Verringerung der Anfälligkeit von Modellen gegenüber adversariellen Störungen hervor und bieten Einblicke, wie diese Techniken genutzt werden können, um sicherere KI-Systeme zu entwerfen.
de
dc.description.abstract
Deep neural networks (DNNs) have become ubiquitous in various applications, yet they are highly vulnerable to adversarial attacks that can easily manipulate their output. This paper investigates the potential of variational bottleneck techniques and the role of network depth for adversarial robustness. We conduct an empirical study comparing models trained with Information Bottleneck-based objectives and traditional architectures without bottlenecks. We analyze their resilience against state-of-the-art evasion attacks, including the FGSM, EAD, C\&W, and JSMA attacks. Our research evaluates the impact of bottleneck placement on adversarial robustness and explores the relationship between network depth and resilience. Our results highlight the effectiveness of certain variational bottleneck strategies in reducing model vulnerability to adversarial perturbations, providing insights into how these techniques can be leveraged to design more secure AI systems.
en
dc.language
English
-
dc.language.iso
en
-
dc.rights.uri
http://rightsstatements.org/vocab/InC/1.0/
-
dc.subject
Deep Neural Networks
en
dc.subject
Adversarial Attacks
en
dc.subject
Evasion Attacks
en
dc.subject
Variational Information Bottleneck
en
dc.subject
Shallow Variational Bottleneck Injection
en
dc.subject
Deep Variational Bottleneck Injection
en
dc.subject
Adversarial Robustness
en
dc.subject
Image Classification
en
dc.subject
Model Compression
en
dc.title
Evasion Resilience in Variational Bottleneck Injected Deep Neural Networks
en
dc.type
Thesis
en
dc.type
Hochschulschrift
de
dc.rights.license
In Copyright
en
dc.rights.license
Urheberrechtsschutz
de
dc.identifier.doi
10.34726/hss.2025.124403
-
dc.contributor.affiliation
TU Wien, Österreich
-
dc.rights.holder
Patrik Szabó
-
dc.publisher.place
Wien
-
tuw.version
vor
-
tuw.thesisinformation
Technische Universität Wien
-
dc.contributor.assistant
Furutanpey, Alireza
-
tuw.publication.orgunit
E194 - Institut für Information Systems Engineering