Wilberg, F. (2025). Large Language Model based Knowledge Creation Verified by Knowledge Graphs and News Articles [Diploma Thesis, Technische Universität Wien]. reposiTUm. https://doi.org/10.34726/hss.2025.126769
LLM; Large Language Model; Hallucination; Claim Detection; Claim Verification
en
Abstract:
Halluzinationen sind ein weit verbreitetes Phänomen im Kontext von Large Language Models (LLMs). In den LLM-generierten Antworten steckt oft eine vorgetäuschte Sicherheit der Aussagen, die getroffen wurden. Diese Arbeit untersucht die Auswirkungen von Halluzinationen innerhalb von LLMs und skizziert einen Ansatz zur Erkennung und Überprüfung von Aussagen in den von LLMs generierten Antworten. Um dieses Problem zu bewältigen, schlagen wir ein Framework mit einer mehrstufigen Methodik für die Erkennung und Überprüfung von Behauptungen für LLMs vor. Dieses umfasst das Beschaffen von Informationen über die Google-Suche, das Extrahieren von Daten aus Wikidata und schließlich die Darstellung einer Beurteilung zusammen mit einer Begründung für den Benutzer. Wir arbeiten mit dem Design Science Framework (DSF), um ein Framework zu entwickeln, das modernste LLM-Technologie wie Structured Output, Prompt Chaining und Role Prompting nutzt, um bestehende Halluzinationen zu identifizieren und zu verifizieren. Es wurde ein speziell zugeschnittener Goldstandard-Datensatz zusammengestellt, der Fragen und entsprechend korrekte Antworten zu den Führungspositionen aller in den Fortune 500 gelisteten Unternehmen umfasst. Wir führen eine genaue Evaluierung unter Verwendung unserer Golddaten durch. Wir weisen eine hohe Genauigkeit der Pipeline mittels eines Makro-F1-Scores von 0,8611 nach, der auch die Anwendbarkeit im produktiven Einsatz bestätigt.
de
Hallucination is a prevalent phenomenon that manifests in various contexts involving the utilization of Large Language Models (LLMs). When engaging with LLMs, users must remain vigilant against the illusion of accuracy that these models present. This thesis examines the implications of hallucination within LLMs and outlines an approach designed to detect and verify claims within the responses generated by LLMs. To address the issue of hallucination, we propose a claim detection and verification framework for LLMs that encompasses a comprehensive, multi-step methodology. This methodology involves retrieving information through Google Search, extracting data from Wikidata, and ultimately presenting an assessment alongside a justification to the user. We adhere to the Design Science Framework (DSF) to develop a framework that leverages state-of-the-art LLM technology, including structured output, prompt chaining, and role prompting, to identify and verify existing hallucinations. A specifically-tailored gold-standard dataset was meticulously curated, encompassing questions and corresponding correct responses about the executive management positions of all corporations listed in the Fortune 500. We conduct a rigorous evaluation employing our gold data, demonstrating high accuracy and a macro F1 score of 0.8611 for the framework, proving its applicability in real-world environments.
en
Additional information:
Arbeit an der Bibliothek noch nicht eingelangt - Daten nicht geprüft Abweichender Titel nach Übersetzung der Verfasserin/des Verfassers