Η παρούσα εργασία έγινε στα πλαίσια της ανάπτυξης ενός εξομοιωτή
διαστημικού ρομπότ και διαπραγματεύεται την βελτίωση του προσδιορισμού
θέσης και προσανατολισμού του ρομπότ. Ο στόχος αυτός επιτυγχάνεται με
ανάπτυξη καινούργιων μεθόδων βαθμονόμησης και λειτουργίας των
αισθητήρων του ρομπότ αλλά και με τη χρήση φίλτρων που συνδυάζουν
πληροφορίες από πολλαπλούς αισθητήρες για την αφαίρεση του θορύβου των
μετρήσεων. Για τον προσδιορισμό της θέσης και του προσανατολισμού του
ρομπότ χρησιμοποιούνται δύο συστήματα αισθητήρων, ένα ενσωματωμένο
σύστημα οπτικών αισθητήρων και μία κάμερα που παρακολουθεί το ρομπότ
από ψηλά. Στην εργασία αυτή αναπτύχθηκε μία μέθοδος για τον
προσδιορισμό των παραμέτρων του μοντέλου παραμόρφωσης της κάμερας και
του μοντέλου μετασχηματισμού συντεταγμένων από το επίπεδο της εικόνας
στον πραγματικό κόσμο. Στην συνέχεια αναπτύχθηκε μία εφαρμογή με την
ενσωμάτωση αυτών των μοντέλων για τον εντοπισμό του ρομπότ από τις
εικόνες της κάμερας. Για την συγχώνευση των μετρήσεων από την κάμερα
και τους οπτικούς αισθητήρες αναπτύχθηκε ένα Διακριτό Επεκτεταμένο
Φίλτρο Kalman που χρησιμοποιεί το κινηματικό μοντέλο του ρομπότ,
μεθόδους συγχώνευσης δεδομένων κεντρικής αρχιτεκτονικής και μεθόδους
ενσωμάτωσης καθυστερημένων μετρήσεων. Για την μελέτη των μεθόδων αυτών
δημιουργήθηκε ένα μοντέλο προσομοίωσης και για την επαλήθευση των
θεωρητικών αποτελεσμάτων σχεδιάστηκαν πειράματα, τα αποτελέσματα των
οποίων αναφέρονται αναλυτικά.
The present study is part of the development of a space simulator
robot and is negotiating the improvement of the localization
techniques for estimating the pose of the robot. This goal is achieved
with the development of new calibration and functionality methods for
the sensors of the robot and the use of filters to fuse data from
multiple sources to remove measurement noise. Τo determine the
position and attitude of the robots, the emulator uses two sensor
systems, a system of on board optical sensors and an overhead camera.
In this study a method was developed to estimate the parameters of the
distortion model of the camera and the model that transforms the
coordinates from the image plane to real world coordinates. Then a
program was developed that applies those models to locate the robot
from the camera images. For the fusion of the measurements from the
camera and the optical sensors a Discrete Extended Kalman Filter
(DEKF) was developed that uses the kinematic model of the robot,
centralized measurement fusion techniques and methods for
incorporating delayed measurements. For the study of these methods a
simulation model was developed and validated with experiments. The
simulation and experimental results are presented and analysed.