<div class="csl-bib-body">
<div class="csl-entry">Breiner, G. (2023). <i>Graph working representations in hybrid models as explanations for common sense question answering</i> [Diploma Thesis, Technische Universität Wien]. reposiTUm. https://doi.org/10.34726/hss.2023.102461</div>
</div>
-
dc.identifier.uri
https://doi.org/10.34726/hss.2023.102461
-
dc.identifier.uri
http://hdl.handle.net/20.500.12708/176566
-
dc.description.abstract
Vernunftbegabte Systeme zu erzeugen ist eine der größten Hürden der derzeitigen Künstlichen Intelligenz Forschung und ist das Ziel einer immer größer werdenden Menge an Machine Learning Benchmarks, spezifisch in NLP.Neurale Modelle, die vortrainierte Sprach-Modelle (zumeist BERT) verwenden, dominieren die Ranglisten viele dieser Benchmarks, unter denen viele den Gebrauch zusätzlicher Wissensquellen verlangen - diese sind oft semantische Graphen allen voran ConceptNet.Die Verbindung dieser zwei Representationsarten durch das Anreichern des Graphs mit Hilfe von Graph Attention Networks bietet nicht nur bessere Performance, sondern erlaubt auch die Verwendung der angereicherten Graphen als Erklärungen des Modells.In dieser Arbeit evaluieren wir QA-GNN (ein Hybrid Modell, das BERT und ConceptNet verwendet) gegen die CommonSenseQA Benchmark und evaluieren zusätzlich seine Erklärbarkeit durch quantiative und qualitative Methoden.Wir experimentieren mit einer Alternative zu ConceptNet, 4Lang, ersetzen diese Graphen in der QA-GNN Architektur und vergleichen die Systeme in Bezug auf Performance (Accuracy) und Erklärbarkeit (Comprehensiveness und Sufficiency).Wir fanden dass diese Substitution einen hohen Verlust von Accuracy und Sufficiency verursacht, aber Comprehensiveness verbessert.Mit einer reduzierten Variante von ConceptNet (die nur Relationen der Art verwendet, die in 4Lang enthalten sind) erzielt das System noch schlechtere als das, das 4Lang verwendet, aber erhält interessanterweise fast perfekte Sufficiency.Wir kamen zu dem Entschluss, dass ERASER als Evaluationsmethode sub-optimal für Graph Erklärungen ist, wie QA-GNN sie liefert, und identifizieren quantitative Erklärbarkeit-Evaluation für Graph Erklärungen als vielversprechendes Forschungsfeld.
de
dc.description.abstract
Enabling Machines to use common sense is currently one of the major hurdles for Artifical Intelligence contributing to an increasingly large number of tasks and benchmarks in the field of Machine Learning and NLP specifically. Neural models relying on pre-trained language models (such as mostly BERT) dominate the leaderboards of most of these benchmarks, however the nature of these tasks necessitates the use of additional knowledge sources, oftentimes in the form of knowledge graphs or semantic graphs, most notably ConceptNet. Joining pre-trained language models with knowledge graphs by updating the graph with the aid of Graph Attention Networks not only offers increased performance, but opens the possibility of using the updated graphs as explanations of the model. In this thesis we evaluated the explainability of QA-GNN (a hybrid model utilizing BERT and ConceptNet) on the CommonSenseQA benchmark quantitavely using ERASER and qualitatively by inspecting graph visualizations. We experimented with alternative semantic graphs, substituting ConceptNet graphs for 4Lang graphs in the QA-GNN architecture and compared these models in terms of Performance (Accuracy) and Explainability (Comprehensiveness and Sufficiency). We found that this substitution causes substantial losses in accuracy and sufficiency, but gains in comprehensiveness. Using a reduced version of ConceptNet (with relation types akin to 4Lang) yields worse accuracy than the model using 4Lang, but interestingly an almost perfect score of sufficiency. We conclude that using ERASER as evaluation method is sub-optimal for graph explanations such as the ones generated by QA-GNN and identify research in quantitative explanation evaluation for graph explanations specifically as promising future area of research.\end{abstract}
en
dc.language
English
-
dc.language.iso
en
-
dc.rights.uri
http://rightsstatements.org/vocab/InC/1.0/
-
dc.subject
Natural Language Processing
en
dc.subject
Machine Learning
en
dc.subject
Explainability
en
dc.subject
Common Sense Reasoning
en
dc.subject
Question Answering
en
dc.subject
Hybrid Model
en
dc.subject
Graph Attention Networks
en
dc.title
Graph working representations in hybrid models as explanations for common sense question answering
en
dc.title.alternative
Graph Darstellungen in Hybrid Modellen als Erklärungen für Vernunft fordernde Fragestellungen
de
dc.type
Thesis
en
dc.type
Hochschulschrift
de
dc.rights.license
In Copyright
en
dc.rights.license
Urheberrechtsschutz
de
dc.identifier.doi
10.34726/hss.2023.102461
-
dc.contributor.affiliation
TU Wien, Österreich
-
dc.rights.holder
Gabriel Breiner
-
dc.publisher.place
Wien
-
tuw.version
vor
-
tuw.thesisinformation
Technische Universität Wien
-
dc.contributor.assistant
Recski, Gábor
-
tuw.publication.orgunit
E194 - Institut für Information Systems Engineering
-
dc.type.qualificationlevel
Diploma
-
dc.identifier.libraryid
AC16823040
-
dc.description.numberOfPages
58
-
dc.thesistype
Diplomarbeit
de
dc.thesistype
Diploma Thesis
en
dc.rights.identifier
In Copyright
en
dc.rights.identifier
Urheberrechtsschutz
de
tuw.advisor.staffStatus
staff
-
tuw.assistant.staffStatus
staff
-
tuw.advisor.orcid
0000-0002-7149-5843
-
tuw.assistant.orcid
0000-0001-5551-3100
-
item.grantfulltext
open
-
item.openairecristype
http://purl.org/coar/resource_type/c_bdcc
-
item.mimetype
application/pdf
-
item.openairetype
master thesis
-
item.openaccessfulltext
Open Access
-
item.languageiso639-1
en
-
item.cerifentitytype
Publications
-
item.fulltext
with Fulltext
-
crisitem.author.dept
E194-04 - Forschungsbereich Data Science
-
crisitem.author.parentorg
E194 - Institut für Information Systems Engineering