Estimation et reconstruction d’indices visuels

Télécharger le fichier original (Mémoire de fin d’études)

Introduction générale

Les robots font maintenant partie intégrante de notre monde. Ils ont également conquis notre imaginaire, hantant nos univers de science-fiction, jusqu’à se matérialiser sur nos écrans, dotés de capacités extraordinaires. Mais comme d’habitude, la réalité est plus or-dinaire. La plupart d’entre eux restent confinés dans des usines, réalisant des tâches dan-gereuses pour l’homme ou répétitives. Ils soudent, peignent, manipulent, et participent à la construction des objets de tous les jours, des jouets ou des automobiles. Pourtant cer-tains nous côtoient chaque jour, quelques uns même tentent d’évincer de notre quotidien le balai et l’aspirateur, nous dispensant de quelques travaux domestiques.
L’ATILF (Analyse et traitement automatique de la langue française) définit un robot comme un « appareil effectuant, grâce à un système de commande automatique à base de micro-processeur, une tâche précise pour laquelle il a été conçu dans le domaine indus-triel, scientifique ou domestique. » Cette définition décrit le principe de fonctionnement de tous les robots existants, mais ne donne aucune information sur les tâches effectuées ou sur leur aspect visuel. Les robots se présentent sous des formes diverses et variées, les morphologies choisies, étant a priori adaptées aux tâches qu’ils devront effectuer. Les robots industriels se résument le plus souvent à des bras mécaniques commandés par or-dinateur, munis d’outils fixés sur l’organe terminal. Ils travaillent généralement dans un environnement très structuré et peu changeant. Les premiers robots étaient aveugles à leur environnement extérieur, et ne contrôlaient leurs mouvements qu’en utilisant la proprio-ception. Mais les robots industriels ont dû évoluer et s’adapter pour l’usine du futur. Ils doivent collaborer avec des opérateurs humains, mettant leur force et leur répétabilité au service de l’expérience et de l’intuition humaine. D’autres s’aventurent dans nos maisons ou dans la nature, mais tous doivent s’adapter à un environnement dynamique.
Ils ont donc été dotés de capteurs extéroceptifs, leur permettant de recueillir des infor-mations sur le monde environnant. Ces capteurs sont de natures diverses et sont employés
à des fins très variées. Les capteurs de force peuvent renseigner sur les forces exercées par le robot ou par des agents extérieurs. Les capteurs à ultrasons et les lasers offrent la possibilité de détecter la proximité immédiate d’un obstacle ou de scruter une partie de la structure de l’environnement du robot. Les caméras et les capteurs de profondeur type « Kinect » offrent une vue de cet environnement, et peuvent fournir de riches informations, comme la couleur, la texture, la présence, la localisation et l’identification de personnes ou d’objets. Les micros sont eux aussi utilisés pour permettre au robot d’exécuter des ordres oraux, ouvrant ainsi la voie à l’audition en robotique. Ce domaine est d’ailleurs actuellement en expansion, avec le développement de travaux notamment orientés vers la localisation de sources sonores. Pour exploiter efficacement les mesures extéroceptives, il est nécessaire de pouvoir les traiter automatiquement. Pour cela, il faut un ou des pro-cesseurs suffisamment puissants et des algorithmes permettant d’extraire les informations utiles pour les tâches envisagées. La capacité brute de calcul des processeurs croît quasi-ment de manière exponentielle vérifiant les conjectures de Moore, et la recherche est très active dans beaucoup de domaines scientifiques tels le traitement du signal, la vision par ordinateur ou l’intelligence artificielle.
La morphologie des robots s’adapte aussi pour leur permettre d’évoluer dans différents environnements. Certains comme TurtleBot [Turtlebot, 2015], Curiosity [Curiosity, 2015], Roomba [Roomba, 2015] ou même les voitures autonomes de Google, sont mobiles et mu-nis de roues, ils parcourent nos parquets, nos routes ou même les lointaines contrées de la Lune, de Mars (le robot Philae [Philae, 2015] a même récemment roulé sur une comète). Les voiliers autonomes tels le Vaimos [Vaimos, 2015] sillonnent nos mers, les robots sous-marins [OpenROV, 2015] auscultent les profondeurs des océans et les drones aériens civils ou militaires quadrillent le ciel. D’autres tentent de reproduire des capacités intéressantes que la nature a accordées aux animaux. Il en est de quadrupèdes qui s’adaptent aux ter-rains accidentés ou glissants comme Big Dog ou Cheetah de Boston Dynamics [Dynamics, 2015]. Il existe des robots inspirés des araignées, des insectes pour la marche et le vol, des poissons et des serpents pour la reptation et la nage, des oiseaux pour le vol [Bird, 2015]. Et ils se diversifient d’année en année, au fil des recherches, des découvertes et des inventions. D’autres robots ont été conçus pour être morphologiquement proches de l’homme, ils possèdent une tête, un tronc, deux bras. Beaucoup sont mobiles, quelques uns sont bipèdes alors que d’autres se meuvent à l’aide de roues. Les robots Asimo [Asimo, 2015] de Honda, Robonaut [Robonaut, 2015] de la NASA, les robots HRP [HRP, 2015] de Kawada Industries, Nao [Nao, 2015] et Roméo [Romeo, 2015] de Aldebaran Robotics, PR2 [PR2, 2015] de Willow Garage, Justin [Justin, 2015] et les robots ARMAR [Armar, 2015] en sont des exemples. Ces structures anthropomorphiques devraient permettre au robot d’effectuer des tâches réalisées par les humains et encore inaccessibles aux machines. Elles devraient aussi faciliter son insertion dans des environnements conçus par et pour les humains. Les robots anthropomorphes seraient ainsi appelés à remplacer les humains pour réaliser des tâches dangereuses, comme par exemple lors d’une catastrophe naturelle ou industrielle 1. Ils pourraient aussi les aider dans leur vie quotidienne.
Ces robots étant appelés à nous côtoyer, l’aspect interaction et coopération avec l’homme fait l’objet d’une recherche intense. Il faut en effet s’assurer qu’ils seront sans danger pour l’homme, et qu’ils ne menaceront pas son confort par leur présence. Il nous faut des machines, qui puissent se faire oublier quand c’est nécessaire, et être néanmoins présentes pour nous aider. Pour répondre à nos attentes, plusieurs robots doivent être capables de manipuler des objets usuels, au moins aussi bien que les humains, et d’utiliser leurs deux bras pour l’accomplissement de leur tâche, comme nous le faisons inconsciem-ment et sans effort tous les jours. En effet, beaucoup d’actions quotidiennes requièrent chez l’homme l’emploi des deux mains. Visser/dévisser le bouchon d’une bouteille, en verser le contenu dans un verre, porter un plateau ou d’autres objets lourds, plier/déplier une pièce de tissu, manœuvrer un balai, tourner une vanne ou un volant, sont autant d’exemples d’actions que nous accomplissons tous les jours. Elle semblent intuitives et ai-sées aux jeunes en bonne santé, mais les difficultés sont bien réelles pour ceux qui souffrent de déficiences motrices ou sensitives et sont un défi certain pour un robot qui prétend ap-porter une réelle aide domestique.
Ainsi, un aspect important de la manipulation à deux bras, et présent dans les exemples de manipulation cités plus haut est la coordination entre les deux bras. Comment peut-on caractériser cette coordination, et quels sont les moyens dont on dispose pour la mettre en œuvre sur un robot à deux bras ? C’est le problème auquel s’intéressera cette thèse, en étudiant une tâche simple : la fermeture d’un stylo. Il s’agit un exemple domestique d’une tâche d’assemblage, et tous les résultats tirés de cette étude sont susceptibles de pouvoir être étendus à de nombreuses tâches d’assemblage dans un contexte plus industriel. De nombreux aspects entrent en compte dans la réalisation d’une manipulation coordonnée. La perception des objets à manipuler, leur préhension par les organes terminaux du robot, la planification automatique du mouvement à effectuer, la commande pour la réalisation de ces mouvements, la gestion des collisions entre les bras eux-mêmes et les obstacles ex-térieurs éventuels, sont des problèmes ouverts et possèdent pour beaucoup une littérature scientifique spécialisée. Dans le cadre de cette thèse, le choix a été fait de se focaliser sur l’aspect commande du robot, en négligeant l’étape de la préhension des objets. Pour être le moins tributaire possible de la manière dont les objets ont été saisis, l’utilisation de ca-méras a été privilégiée. Le but premier de cette thèse a donc été d’élaborer une commande pour la coordination basée sur la vision. En d’autres termes, l’objectif est de calculer à chaque instant la direction et l’amplitude du mouvement à exécuter par chaque articula-tion des deux bras du robot en utilisant les informations fournies par des caméras sur les positions des objets à manipuler pour mettre en œuvre cette coordination recherchée.
Le deuxième chapitre de cette thèse présentera donc succinctement la manipulation à deux bras et la manière dont est abordé le problème de la coordination. Il tentera égale-ment de préciser le cadre théorique de la coordination telle qu’elle est comprise dans ce travail. Il décrira plusieurs commandes, et témoignera du petit nombre de travaux sur la coordination par la vision.
Le troisième chapitre s’intéressera à la commande basée sur la vision, décrira la stra-tégie de commande développée pour coordonner deux bras. La méthode proposée sera dé-taillée pour plusieurs cas, mettant en lumière notre contribution sur l’asservissement visuel avec plusieurs caméras, cibles et bras. Cette méthode est aussi conçue pour contraindre au minimum les bras du robot, lui permettant de réaliser plus facilement d’autres tâches simultanément.

Table des matières

1 Introduction générale 
2 La coordination entre bras manipulateurs
2.1 Problématique et définitions
2.2 Cadre théorique de la coordination
2.2.1 Commande en position ou en vitesse
2.2.2 Commande hybride position/force
2.2.3 Commande par impédance
2.2.4 Commande basée sur la vision
2.3 Conclusion
3 La coordination par asservissement visuel 
3.1 Introduction
3.2 Asservissement visuel 2D
3.3 La coordination par l’asservissement visuel
3.3.1 Caméra déportée
3.3.1.1 Comanipulation
3.3.1.2 Coordination asymétrique
3.3.2 Caméra embarquée
3.3.3 Caméra embarquée indépendante
3.3.3.1 Comanipulation
3.3.3.2 Coordination asymétrique
3.3.4 Liaisons virtuelles entre objets
3.3.4.1 Liaison rigide
3.3.4.2 Liaison prismatique
3.3.4.3 Liaison pivot glissant
3.3.5 Conclusion
3.4 Application : refermer un stylo
3.4.1 Présentation du système robotique considéré et des caméras utilisées
3.4.1.1 Système robotique
3.4.1.2 Modèle de la caméra
3.4.2 Choix des indices visuels
3.4.3 Modélisation de la tâche et stratégie de commande
3.4.3.1 Décomposition en trois sous-tâches
3.4.3.2 Synthèse de la commande
3.4.3.3 Enchaînement des correcteurs
3.4.4 Résultats de simulation
3.5 Conclusion
4 La gestion de la redondance
4.1 Introduction
4.2 Redondance dans le formalisme des fonctions de tâche
4.2.1 Etat de l’art
4.2.2 Discussion générale
4.2.3 Analyse des approches retenues et proposition d’une nouvelle stratégie
4.2.4 Évaluation de la stratégie proposée au travers d’un exemple
4.2.5 Conclusion
4.3 Prise en compte des butées et des contraintes de visibilité
4.3.1 Évitement des butées
4.3.2 Contraintes sur la visibilité
4.3.3 Résultats de simulation
4.4 Conclusion
5 Estimation et reconstruction d’indices visuels
5.1 Introduction
5.2 État de l’art
5.3 Discussion
5.4 Estimation du point
5.4.1 Méthode du point milieu
5.4.2 Résultats de simulation
5.5 Extension de la méthode du point milieu à d’autres primitives.
5.5.1 Cas des droites
5.5.1.1 Méthode développée
5.5.1.2 Résultats de simulation
5.5.2 Estimation du cylindre
5.5.2.1 Cas du cylindre de longueur infinie
5.5.2.2 Cas du cylindre de longueur finie
5.5.2.3 Résultats de simulation
5.6 Conclusion
6 Résultats
6.1 Introduction
6.2 Premier scénario : gestion d’une panne temporaire des caméras
6.3 Second scénario : extension de la coordination à la tête et aux bras du
6.4 Conclusion
7 Conclusion et perspectives
A Détermination des différentes matrices d’interaction
A.1 Matrice d’interaction du point
A.2 Matrice d’interaction de la droite
A.3 Matrice d’interaction du segment
A.4 Indices visuels et matrice d’interaction pour le cylindre
A.5 Extension au cas du cylindre de longueur finie

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *