<div class="csl-bib-body">
<div class="csl-entry">Wilberg, F. (2025). <i>Large Language Model based Knowledge Creation Verified by Knowledge Graphs and News Articles</i> [Diploma Thesis, Technische Universität Wien]. reposiTUm. https://doi.org/10.34726/hss.2025.126769</div>
</div>
-
dc.identifier.uri
https://doi.org/10.34726/hss.2025.126769
-
dc.identifier.uri
http://hdl.handle.net/20.500.12708/220444
-
dc.description
Arbeit an der Bibliothek noch nicht eingelangt - Daten nicht geprüft
-
dc.description
Abweichender Titel nach Übersetzung der Verfasserin/des Verfassers
-
dc.description.abstract
Halluzinationen sind ein weit verbreitetes Phänomen im Kontext von Large Language Models (LLMs). In den LLM-generierten Antworten steckt oft eine vorgetäuschte Sicherheit der Aussagen, die getroffen wurden. Diese Arbeit untersucht die Auswirkungen von Halluzinationen innerhalb von LLMs und skizziert einen Ansatz zur Erkennung und Überprüfung von Aussagen in den von LLMs generierten Antworten. Um dieses Problem zu bewältigen, schlagen wir ein Framework mit einer mehrstufigen Methodik für die Erkennung und Überprüfung von Behauptungen für LLMs vor. Dieses umfasst das Beschaffen von Informationen über die Google-Suche, das Extrahieren von Daten aus Wikidata und schließlich die Darstellung einer Beurteilung zusammen mit einer Begründung für den Benutzer. Wir arbeiten mit dem Design Science Framework (DSF), um ein Framework zu entwickeln, das modernste LLM-Technologie wie Structured Output, Prompt Chaining und Role Prompting nutzt, um bestehende Halluzinationen zu identifizieren und zu verifizieren. Es wurde ein speziell zugeschnittener Goldstandard-Datensatz zusammengestellt, der Fragen und entsprechend korrekte Antworten zu den Führungspositionen aller in den Fortune 500 gelisteten Unternehmen umfasst. Wir führen eine genaue Evaluierung unter Verwendung unserer Golddaten durch. Wir weisen eine hohe Genauigkeit der Pipeline mittels eines Makro-F1-Scores von 0,8611 nach, der auch die Anwendbarkeit im produktiven Einsatz bestätigt.
de
dc.description.abstract
Hallucination is a prevalent phenomenon that manifests in various contexts involving the utilization of Large Language Models (LLMs). When engaging with LLMs, users must remain vigilant against the illusion of accuracy that these models present. This thesis examines the implications of hallucination within LLMs and outlines an approach designed to detect and verify claims within the responses generated by LLMs. To address the issue of hallucination, we propose a claim detection and verification framework for LLMs that encompasses a comprehensive, multi-step methodology. This methodology involves retrieving information through Google Search, extracting data from Wikidata, and ultimately presenting an assessment alongside a justification to the user. We adhere to the Design Science Framework (DSF) to develop a framework that leverages state-of-the-art LLM technology, including structured output, prompt chaining, and role prompting, to identify and verify existing hallucinations. A specifically-tailored gold-standard dataset was meticulously curated, encompassing questions and corresponding correct responses about the executive management positions of all corporations listed in the Fortune 500. We conduct a rigorous evaluation employing our gold data, demonstrating high accuracy and a macro F1 score of 0.8611 for the framework, proving its applicability in real-world environments.
en
dc.language
English
-
dc.language.iso
en
-
dc.rights.uri
http://rightsstatements.org/vocab/InC/1.0/
-
dc.subject
LLM
en
dc.subject
Large Language Model
en
dc.subject
Hallucination
en
dc.subject
Claim Detection
en
dc.subject
Claim Verification
en
dc.title
Large Language Model based Knowledge Creation Verified by Knowledge Graphs and News Articles