<div class="csl-bib-body">
<div class="csl-entry">Paternoster, N. (2025). <i>Improving Industrial Robot Accuracy utilizing Iterative Learning Control with Visual Environment Feedback</i> [Diploma Thesis, Technische Universität Wien]. reposiTUm. https://doi.org/10.34726/hss.2025.119245</div>
</div>
-
dc.identifier.uri
https://doi.org/10.34726/hss.2025.119245
-
dc.identifier.uri
http://hdl.handle.net/20.500.12708/213847
-
dc.description
Arbeit an der Bibliothek noch nicht eingelangt - Daten nicht geprüft
-
dc.description
Abweichender Titel nach Übersetzung der Verfasserin/des Verfassers
-
dc.description.abstract
Collaborative robots (cobots) ermöglichen eine enge Zusammenarbeit zwischen Mensch und Maschine in gemeinsamen Arbeitsbereichen, wodurch sie Platz sparen und dank ihrer leichten Bauweise ein höheres Maß an Sicherheit bieten. Allerdings führen diese leichteren, weniger starren Komponenten zu erheblichen Abweichungen der Trajektorie am TCP des Roboters.Diese Arbeit präsentiert ein kamerabasiertes ILC-System, das systematische kinematische und nicht-kinematische Fehler des Roboterendeffektors bei sich wiederholenden Aufgaben kompensiert. Das System verwendet eine am Endeffektor montierte Kamera und arbeitet in zwei Phasen: In der Ground-Truth-Phase werden Referenzbilder aufgenommen und mithilfe von Triangulation eine 3D-Karte erstellt. Anschließend werden die Bilder mit der fehlerhaften Trajektorie aufgenommen und mittels einer optimierung-basierenden visuellen Odometrie (VO) analysiert. Dabei werden Bewegungsab- weichungen der Kamera und somit des Endeffektors im Vergleich zu den Referenzbildern ermittelt. Auf Basis dieser erfassten Abweichungen optimiert ein PD-basierter ILC-Prozess die Robotertrajektorie, indem er gezielte Anpassungen an den Gelenkwinkeln vornimmt. Dabei werden die berechneten TCP-Abweichungen mithilfe inverser Kinematik in die erforderlichen Gelenkwinkel umgewandelt.Simulationen bestätigen die Robustheit des VO-Algorithmus unter verschiedenen Umgebungsbedingungen und Kameraeinstellungen. Die Ergebnisse zeigen, dass Faktoren wie Bildrauschen, 3D-Tiefendaten und die Anzahl der erkannten Merkmale das Signal-Rausch-Verhältnis (SNR) beeinflussen. Selbst bei einem Bildrauschen mit einer Standardabweichung von 1 Pixel und einer Tiefendatenverfügbarkeit von nur 20% können Abweichungen von 0.5 mm und 5 mrad zuverlässig erfasst werden.Experimente am Roboter unter Verwendung einer Trajektorie mit dynamischen Wendepunkten und einem flexiblen Endeffektor-Setup belegen die Effektivität des Systems.Die absolute Trajektorienabweichung (ATE) wird so innerhalb von 100 Iterationen von0.25 m und 0.3 rad auf unter 3 mm und 5 mrad reduziert.Das vorgeschlagene System ermöglicht so präzise Pick-and-Place-Aufgaben selbst mit flexiblen Roboterkomponenten
de
dc.description.abstract
Collaborative robot enable direct human-robot interaction in shared workspaces, offering space efficiency and enhanced safety through lightweight components. However, these lighter and therefor less rigid components introduce significant trajectory deviations and accuracy limitations at the Tool Center Point (TCP). This thesis proposes a vision-based Iterative Learning Control (ILC) approach to compensate for both systematic kinematic and non-kinematic errors in repetitive tasks.The proposed approach follows a two-phase workflow: establishing ground truth and updating the trajectory. During the ground truth phase, images captured by an eye-in-hand camera are stored and used to construct a 3D map through triangulation. In the update phase, newly captured images are processed using an optimization-based monocular Visual Odometry (VO) algorithm to estimate deviations in the camera’s movement. Based on these deviations, a PD-type ILC iteratively refines the trajectory, improving accuracy over successive executions. To achieve this, the computed TCP deviations are converted into the required joint adjustments using inverse kinematics and the robot’s kinematic model.A simulation evaluation was conducted to assess the VO algorithm’s performance.The study examines how environmental conditions and camera selection affect there cognition of camera movement. The results show that noise, 3D depth data, and feature count significantly influence the detectable Signal-to-Noise Ratio (SNR) when used as an ILC input. Even with a noise standard deviation of 1 pixel and only 20%depth data availability, the SNR remains above 1, enabling the detection of deviations of 0.5 mm and 0.5 mrad.Further real-world experiments confirm these findings. For a given trajectory, with dynamic turning points and an added flexible end-effector setup the proposed approach effectively identifies and corrects both kinematic and non-kinematic errors in the end-effector’s positioning. It successfully reduces the Absolute Trajectory Error (ATE) of0.25 m and 0.3 rad to below 3 mm and 5 mrad over the course of 100 iterations. The proposed framework thus enables high-precision motion for predefined tasks, such asrepetitive pick-and-place applications, even with flexible error-prone robot components.
en
dc.language
English
-
dc.language.iso
en
-
dc.rights.uri
http://rightsstatements.org/vocab/InC/1.0/
-
dc.subject
Robotik
de
dc.subject
Automation
de
dc.subject
Robotics
en
dc.subject
Automation
en
dc.title
Improving Industrial Robot Accuracy utilizing Iterative Learning Control with Visual Environment Feedback
en
dc.type
Thesis
en
dc.type
Hochschulschrift
de
dc.rights.license
In Copyright
en
dc.rights.license
Urheberrechtsschutz
de
dc.identifier.doi
10.34726/hss.2025.119245
-
dc.contributor.affiliation
TU Wien, Österreich
-
dc.rights.holder
Niklas Paternoster
-
dc.publisher.place
Wien
-
tuw.version
vor
-
tuw.thesisinformation
Technische Universität Wien
-
dc.contributor.assistant
Gsellmann, Peter
-
tuw.publication.orgunit
E376 - Institut für Automatisierungs- und Regelungstechnik