<div class="csl-bib-body">
<div class="csl-entry">Bogenreiter, D. (2025). <i>Explainable Prediction of User Post Popularity: An Analysis of the One Million Posts Corpus</i> [Diploma Thesis, Technische Universität Wien]. reposiTUm. https://doi.org/10.34726/hss.2025.122385</div>
</div>
-
dc.identifier.uri
https://doi.org/10.34726/hss.2025.122385
-
dc.identifier.uri
http://hdl.handle.net/20.500.12708/213422
-
dc.description
Arbeit an der Bibliothek noch nicht eingelangt - Daten nicht geprüft
-
dc.description
Abweichender Titel nach Übersetzung der Verfasserin/des Verfassers
-
dc.description.abstract
Diskussionen in den Kommentarbereichen von Zeitungen beeinflussen die öffentliche Meinung erheblich. Die Methoden, die zum Sortieren und Anzeigen von Nutzerbeiträgen verwendet werden, spielen eine entscheidende Rolle bei der Steuerung und Beeinflussung dieser Diskussionen. Die Sortierung wird jedoch oft teilweise von Forenmoderatoren vorgenommen, was zeitaufwändig ist und oftmals ungewünscht von der persönlichen Meinung der Moderatoren beeinflusst wird. Machine-Learning-Modelle, die auf der Grundlage von Nutzerabstimmungsstatistiken trainiert werden, bieten eine potenzielle Lösung für dieses Problem, indem sie ansprechende Beiträge automatisiert auf Basis der dokumentierten Nutzermeinungen identifizieren. Frühere Forschungen in diesem Bereich haben sich in erster Linie auf die Verbesserung der Vorhersagegenauigkeit mithilfe von Deep-Learning-Ansätzen konzentriert, wobei der kritische Aspekt der Erklärbarkeit oft vernachlässigt wurde. Diese Studie untersucht eine Reihe von erklärbaren Methoden zur algorithmischen Identifizierung von wertvollen Benutzerbeiträgen im "One Million Posts"-Korpus, der von der Website der österreichischen Tageszeitung "DerStandard" stammt. Es werden erklärbare Features vorgestellt und erklärbare und interpretierbare Modelle evaluiert, wobei ihre Leistung mit Deep-Learning-Ansätzen verglichen wird. Die Ergebnisse zeigen, dass interpretierbare Modelle, die auf erklärbaren Merkmalen trainiert wurden, die gängigen Baselines in diesem Bereich übertreffen. Sie bleiben jedoch hinter der Vorhersagekraft von Deep-Learning-Ansätzen zurück. Trotz ihrer geringeren Vorhersagekraft bieten diese interpretierbaren Ansätze wertvolle Einblicke in die algorithmische Entscheidungsfindung und ihre potenziellen Fallstricke. Zusätzlich zu den Modellergebnissen wird in dieser Arbeit eine umfassende Analyse der Bedeutung der erklärbaren Merkmale vorgestellt und ein neuartiger Labeling-Ansatz für engagierte Beiträge vorgeschlagen, der sowohl für große als auch kleine Datensätze geeignet ist.
de
dc.description.abstract
Discussions in newspaper comment sections significantly influence public opinion. The methods used to sort and display user posts impact these discussions and can propagate certain opinions. However, sorting is often partially done by forum moderators, which is time-consuming and prone to bias. Machine learning models trained on user voting statistics offer a potential solution by automatically identifying engaging posts based on the documented opinion of the community. Prior research in this domain has primarily focused on improving predictive accuracy using deep learning approaches, often neglecting the critical aspect of explainability. This study explores a range of explainable methods to algorithmically identify valuable user posts in the "One Million Posts" corpus, sourced from Austrian newspaper forum "DerStandard". It introduces explainable features and evaluates explainable and interpretable models, comparing their performance against deep learning approaches. Results show that interpretable models trained on explainable features outperform popular baselines in this domain. However, they fall short of the predictive power of deep learning approaches. Despite their lower predictive power, these interpretable approaches provide valuable insights into algorithmic decision-making and its potential pitfalls. In addition to the model results, this work presents a comprehensive analysis of the importance of the explainable features and proposes a novel labeling approach for engaging posts designed to accommodate both small and large datasets.
en
dc.language
English
-
dc.language.iso
en
-
dc.rights.uri
http://rightsstatements.org/vocab/InC/1.0/
-
dc.subject
Natural Language Processing (NLP)
en
dc.subject
Explainable Artificial Intelligence (XAI)
en
dc.subject
Feature Engineering
en
dc.subject
Text Classification
en
dc.subject
Supervised Learning
en
dc.subject
Post Popularity Prediction
en
dc.subject
Social Media Popularity Prediction
en
dc.subject
Automated Content Moderation
en
dc.subject
Deep Learning
en
dc.subject
Machine Learning
en
dc.title
Explainable Prediction of User Post Popularity: An Analysis of the One Million Posts Corpus
en
dc.type
Thesis
en
dc.type
Hochschulschrift
de
dc.rights.license
In Copyright
en
dc.rights.license
Urheberrechtsschutz
de
dc.identifier.doi
10.34726/hss.2025.122385
-
dc.contributor.affiliation
TU Wien, Österreich
-
dc.rights.holder
Dario Bogenreiter
-
dc.publisher.place
Wien
-
tuw.version
vor
-
tuw.thesisinformation
Technische Universität Wien
-
tuw.publication.orgunit
E194 - Institut für Information Systems Engineering