<div class="csl-bib-body">
<div class="csl-entry">Bittner, S. M. (2023). <i>The Vapnik-Chervonenkis dimensions of different neural network architectures</i> [Diploma Thesis, Technische Universität Wien]. reposiTUm. https://doi.org/10.34726/hss.2023.112693</div>
</div>
-
dc.identifier.uri
https://doi.org/10.34726/hss.2023.112693
-
dc.identifier.uri
http://hdl.handle.net/20.500.12708/177690
-
dc.description
Abweichender Titel nach Übersetzung der Verfasserin/des Verfassers
-
dc.description.abstract
Die Vapnik-Chervonenkis-Dimension, kurz VC-Dimension, ist ein Maß für die Expressivität einer Menge von Funktionen. In dieser Arbeit untersuchen wir dieses Konzept in Bezug auf verschiedene neuronale Netzwerke, die die Sigmoidfunktion als Aktivierungsfunktion verwenden. Genauer gesagt betrachten wir klassische Multilayered Feed-forward Netzwerke und zwei NeuralODE-Architekturen, nämlich Liquid Time Constant(LTC) Netzwerke und Continuous-Time Recurrent Neural Networks(CT-RNNs). In den NeuralODE-Architekturen wird die Ausgabe durch numerisches Lösen einer gewöhnlichen Differentialgleichung berechnet, wovon sich auch der Name ableitet. Für diese Netzwerkklassen leiten wir obere Schranken für die VC Dimension ab, und zwar in Abhängigkeit von der Anzahl der Neuronen, und im Falle der NeuralODE Modelle auch in Abhängigkeit von der Anzahl der Diskretisierungsschritte. Hierzu verwenden wir eine Methode, bei der die Anzahl der Komponenten der Nullmengen von Funktionen - die von den Parametern des Netzwerks abhängen - eine wesentliche Rolle spielt. Dabei finden verschiedene Methoden aus Topologie und Geometrischer Analysis Anwendung. Wir finden einen starken Zusammenhang zwischen der VC-Dimensions-Schranke und der Anzahl der Neuronen im Netzwerk. Die Abhängigkeit von der Anzahl der Diskreditierungsschritte ist auch gegeben, allerdings in geringerem Ausmaß. Die Schranke der NeuralODE-Netze ist etwas höher als die der klassischen Netze bei gleicher Anzahl an Neuronen, was zum Teil darauf zurückzuführen ist, dass die NeuralODE Netze mehr Parameter haben.
de
dc.description.abstract
The Vapnik-Chervonenkis dimension, VC dimension in short, is a measure of expressivity or richness of a set of functions. In this thesis, we explore this concept in relation to different neural network architectures that use sigmoid activation functions. More specifically, we will take a look at classical multilayered feed-forward neural networks and at two NeuralODE architectures, namely Liquid Time Constant (LTC) networks and Continuous-Time Recurrent Neural Networks (CT-RNNs). In the latter two, the output of the network is computed by numerically solving an ordinary differential equation. For these networks, we derived upper bounds on the VC dimension, depending on the number of neurons, and in case of the recurrent models (LTC and CT-RNN), discretization steps. This was done through a method involving the number of components of the zero-set of functions that are dependent on the network parameters. Here various techniques relating to topology and geometrical analysis were used. We find a very strong dependence of the VC dimension bound on the number of neurons and a sizeable dependence on the number of discretization steps. The recurrent models had a higher bound than the classical network for the same number of neurons, which is partly due to the recurrent models having more parameters than the classical network.
en
dc.language
English
-
dc.language.iso
en
-
dc.rights.uri
http://rightsstatements.org/vocab/InC/1.0/
-
dc.subject
Vapnik-Chervonenkis dimension
en
dc.subject
artificial neural networks
en
dc.subject
feed-forward networks
en
dc.subject
liquid time constant networks
en
dc.subject
continuous time recurrent neural networks
en
dc.title
The Vapnik-Chervonenkis dimensions of different neural network architectures
en
dc.title.alternative
Die Vapnik-Chervonenkis-Dimensionen verschiedener Architekturen neuronaler Netze
de
dc.type
Thesis
en
dc.type
Hochschulschrift
de
dc.rights.license
In Copyright
en
dc.rights.license
Urheberrechtsschutz
de
dc.identifier.doi
10.34726/hss.2023.112693
-
dc.contributor.affiliation
TU Wien, Österreich
-
dc.rights.holder
Sebastian Michael Bittner
-
dc.publisher.place
Wien
-
tuw.version
vor
-
tuw.thesisinformation
Technische Universität Wien
-
dc.contributor.assistant
Grosu, Radu
-
tuw.publication.orgunit
E101 - Institut für Analysis und Scientific Computing
-
dc.type.qualificationlevel
Diploma
-
dc.identifier.libraryid
AC16870754
-
dc.description.numberOfPages
36
-
dc.thesistype
Diplomarbeit
de
dc.thesistype
Diploma Thesis
en
dc.rights.identifier
In Copyright
en
dc.rights.identifier
Urheberrechtsschutz
de
tuw.advisor.staffStatus
staff
-
tuw.assistant.staffStatus
staff
-
tuw.assistant.orcid
0000-0001-5715-2142
-
item.languageiso639-1
en
-
item.openairetype
master thesis
-
item.grantfulltext
open
-
item.fulltext
with Fulltext
-
item.cerifentitytype
Publications
-
item.mimetype
application/pdf
-
item.openairecristype
http://purl.org/coar/resource_type/c_bdcc
-
item.openaccessfulltext
Open Access
-
crisitem.author.dept
E104 - Institut für Diskrete Mathematik und Geometrie