Barteit, D. F. (2010). Tracking of thrown objects : catching of mechanically thrown parts for transport in manufacturing [Dissertation, Technische Universität Wien]. reposiTUm. http://hdl.handle.net/20.500.12708/158973
Transportvorgänge sollen flexibler und schneller gestaltet werden, indem Objekte zwischen den Produktionsstätten maschinell geworfen und gefangen werden. Der Wurf eines Objekts ist im Allgemeinen ein nicht-deterministischer Vorgang. Die Positionierung einer Fangvorrichtung kann demnach erst während des Fluges, infolge dessen Observation geschehen. Hierfür wurden verschiedene Sensorkonzepte ausgearbeitet, evaluiert und im Sinne einer diversitären Datenerfassung in ein robustes Messsystem integriert. Für die Vorhersage der Fangposition werden Informationen über die Trajektorie des Fluges benötigt. Eine Approximation der Flugbahn wird über die diskreten 3-D Positionen des Objekts ermittelt. Es wurden verschiedene Verfahren zur Berechnung der 3-D Position unter den gegebenen Bedingungen entwickelt und analysiert. Bereits existierende Roboter, die Objekte unter vergleichbaren Voraussetzungen fangen, nutzen in der Regel Stereokameras zur Beobachtung der Flugbahn. In dieser Arbeit werden zwei Ansätze mit nur einer Kamera vorgestellt, die eine Auffangposition ausreichend genau vorhersagen. In einem ersten Ansatz wird das monokulare Kamerasystem mit einer initialen Geschwindigkeitsmessung kombiniert. Hierbei werden 3-D Positionen eines fliegenden Objekts aus der Anfangsgeschwindigkeit und der Position des Objekts in den visuellen Daten bestimmt. Menschen sind in der Lage, geworfene Objekte zu fangen, auch wenn nur die Information eines einzelnen Auges zur Verfügung steht. Ein weiterer Ansatz zur Positionsbestimmung verzichtet daher auf die Geschwindigkeitsmessung und schätzt die Raumposition des Objekts aus dessen Größe im Bild. Die beschriebenen Ansätze für die Verfolgung und Vorhersage der Trajektorien geworfener Objekte wurden implementiert und erfolgreich in ein bestehendes System integriert. Maschinell geworfene Objekte konnten somit durch einen Roboter gefangen werden.
In a new transport approach for material handling in manufacturing systems, transport processes will be optimized by throwing and catching objects mechanically between work stations. One aspect of this approach is the accurate prediction of interception positions of thrown objects since the flight of an object is in general non-deterministic. The catching device has to be adjusted accordingly. This work deals with calculating the object's position in flight and accurately predicting a point of interception with the catching robot. Two approaches to perceive the flight trajectory based on visual information are realized and evaluated herein. They can be integrated for the sake of diversity and robustness. Other robot systems that are able to catch thrown objects usually use stereoscopic vision. Under the assumptions given in this transportation approach a single camera is sufficient. It will be shown that information about the flight taken by a monocular vision system can be accurate enough to make a precise prediction about an interception position. In a first approach monocular vision is combined with a velocity measurement at the launch to get spatial information about the position of the object in flight. Humans obviously are able to accomplish the catching task with only monocular visual information. Of course with limitations in timing of the grasp and positioning accuracy. Thus in a further step monocular depth-perception techniques will be integrated. Using these spatial measurements tracking models for estimation of the flight trajectory are analyzed and successfully implemented in an existing robot system. Thus mechanically thrown objects can be caught by a gantry robot.