Navigation visuelle d’un robot mobile dans un environnement d’extérieur semi-structuré

Navigation visuelle d’un robot mobile dans un
environnement d’extérieur semi-structuré

Acquisition et reproduction d’images couleur 

 Introduction 

Les caméras sont l’un des plus importants éléments dans la chaîne d’acquisition d’images, leurs propriétés et caractéristiques sont essentielles au bon déroulement du processus de perception en vision robotique. Spécifiquement, notre intérêt est focalisé sur les capteurs matriciels mono-CCD pour l’acquisition d’images numériques couleur  . Dans ce chapitre nous allons présenter les diverses problématiques liées à la reproduction de la couleur et les méthodes implémentées pour obtenir des images couleur de bonne qualité. Ces méthodes ont été intégrées dans le système embarqué sur le robot Dala pour traiter les images acquises par des caméras IEEE1394 de marque Micropix C-1024, mais nous les avons aussi appliquées à des images acquises par plusieurs appareils photos numériques. Des fonctions comme le démosa¨ıquage ou demosaicking [Kimmel 99], le calibrage automatique du point blanc (ou balance des blancs), l’adaptation chromatique, des transformations en ligne pour obtenir une invariance à l’illumination, la correction gamma  … sont appliquées aux images couleur avant traitement. Connaître précisément ces fonctions et les optimiser sont des étapes fondamentales qui vont nous permettre d’exploiter des images couleur de qualité optimale, pour la reconnaissance d’objets et pour contrôler le déplacement d’un robot mobile en milieu naturel. De plus, pendant l’exécution d’une de ces fonctions, la couleur de l’éclairage pour une scène peut changer : la couleur des surfaces présentes dans la scène va alors changer dans la même proportion. Ce décalage de couleur va être responsable de problèmes d’instabilité dans les descripteurs utilisés dans le système de vision. Evidemment, sans la stabilité colorimétrique de ces descripteurs, la plupart des applications impliquant la couleur ( e.g., systèmes de reconnaissance d’objets [Swain 91], photographie numérique [Jacobson 00], etc. ) vont être négativement affectées par les moindres variations d’illumination  . On pourrait se demander pourquoi les performances du système visuel de l’homme ne sont pas affectées par de telles variations. Pour le savoir, la communauté scientifique  a essayé de mesurer expérimentalement la constance de couleur chez l’humain ; mais les mécanismes de la vision humaine menant à la constance des couleurs restent encore sans explication satisfaisante  . Pourtant, à l’intérieur de notre système visuel, chacun des photorécepteurs de la rétine est sensible à une seule gamme de longueur d’onde ; une seule composante couleur est échantillonnée à chaque position spatiale ; les caméras .

Acquisition et reproduction d’images couleur mono-CDD utilisent ce même principe en fournissant uniquement une composante colorimétrique par pixel. Ce type d’échantillonage correspond à un multiplexage spatial de l’information couleur dans une image  . Dans les sections suivantes, nous décrirons tout d’abord les caméras que nous avons utilisées, toutes équipées de mosa¨ıque Bayer. Nous décrirons et comparerons les méthodes existantes pour reconstituer une image couleur à partir de cette mosa¨ıque. Puis, nous traiterons du calibrage chromatique, connu sous le nom Balance des blancs. 

 Acquisition des images couleur 

L’acquisition d’une image couleur peut se faire à l’aide de plusieurs types de caméras. Dans les travaux qui ont précédé les notres dans notre groupe de recherche, R.Murrieta utilisait des caméras analogiques, soit des caméras mono-CCD délivrant une image vidéo au format PAL, soit des caméras tri-CCD qui donnaient directement les trois images au format RGB. Des cartes d’acquisition adaptées permettaient de récupérer sur le calculateur hˆote, les trois plans image Rouge, Vert et Bleu. Rappelons que du fait du standard vidéo, la résolution d’une image analogique est limitée à 591 lignes; le nombre de pixels échantillonés par ligne dépend de la taille de la matrice CCD et du numériseur. Avec les derniers numériseurs, R.Murrieta exploitait des images composées de 590 lignes de 768 pixels. L’ère des caméras analogiques est révolue : nous n’avons exploité que des caméras CCD numériques. La limite sur la résolution des images est maintenant définie par la taille de la matrice CCD et par la vitesse de transmission de la liaison entre caméra et calculateur hˆote. La technologie évolue très rapidement dans l’un et l’autre domaine, du fait des applications grand public : photo numérique (le moindre appareil a maintenant une matrice de 5Mega pixels), et Internet (pour accélérer les vitesses des liaisons entre modems ADSL et calculateur…). Dans notre cas, – nos caméras sont connectées par bus série Firewire ou IEEE 1394, pour lesquelles les cartes interface sont déj`a integrées sur les calculateurs en standard. Ce bus Firewire supporte des vitesses de transfert de l’ordre de 400Mb/s (soit 50Mo/s). L’un des avantages du FireWire est le branchement à chaud ; il constitue ainsi, l’interface idéal pour les équipements audio/vidéo numériques. – les caméras numériques industrielles ont une résolution limitée par rapport aux appareils photo grand public, puisque typiquement, elles fournissent des images de 1M pixels. Nous n’exploitons aucun algorithme de compression d’images, ni aucun traitement interne à la caméra, cela pour avoir une totale maîtrise sur la qualité des images que nous allons exploiter. Nous n’avons pas testé les caméras exploitant les deux autres protocoles qui existent à ce jour pour des caméras numériques : – les caméras USB, souvent caméras bas cout   de type WebCam ou très bas cout, ˆ comme les caméras construites par STMicroelectronics et intégrées dans les téléphones portables : dans notre groupe, les travaux sur la reconnaissance gestuelle ou le suivi de visages, exploitent de tels capteurs. – les caméras Camera Link ou LVDS, qui au contraire, sont souvent exploitées pour des applications critiques (contrˆole-commande, acquisition d’images haute résolution à plus de 30Hz …) : dans notre groupe, le projet BODY SCAN (modélisation du corps humain) a fait usage de telles caméras. 

 Acquisition des images couleur

 Les caméras tri-CCD numériques n’étaient pas disponibles lorsque nous avons commencé nos travaux. Nous avons donc exploité uniquement des caméras mono-CCD, décrites dans la section suivante.

 Caméras couleur fondées sur une mosaïque Bayer

 Les capteurs CCD captent la lumière sur les petits photosites situés à leur surface. Les photosites sont organisés en rangées et colonnes, le plus souvent sur une matrice avec un passage vertical entre chacun d’entre eux de manière à ce que les charges électriques puissent être transférées de manière synchrone vers un registre. Pour des raisons techniques, ces détecteurs ne peuvent capter individuellement qu’une seule longueur d’onde à la fois en un photosite donné. La méthode la plus répandue pour obtenir des images couleur avec un capteur mono-CCD [Zomet 02] consiste à placer devant chaque cellule sensible, un filtre du type CFA11 , de telle sorte que chaque photosite du capteur CCD ne perçoit qu’une des trois composantes spectrales, généralement Rouge, Verte et Bleue (voir figure 2.1). Les pixels sont alors disposés selon un matriçage dit en quinconce. Pour la mosaique d’une matrice colorée, le filtre le plus utilisé est le 3-chromatique RGB, bien que d’autres soient aussi disponibles : le 3-couleurs complémentaires YeMaCy, le système à 4-couleurs ou` la quatrième couleur est le blanc ou une autre couleur d’une sensibilité spectrale décalée [Alleysson 02]. Bien que l’utilisation de plus de 3 composantes colorimétriques, dans la fabrication de capteurs CCD, semble donner plus d’informations spectrales sur la scène, la corrélation implicite entre les composantes de couleur réduit son utilité en pratique. 

Table des matières

Avant-propos
Liste des figures
Introduction
Chapitre 1 Contexte de la navigation visuelle
1.1 Introduction
1.2 Vision pour la navigation de robots mobiles
1.3 Navigation visuelle en milieu intérieur
1.4 Navigation visuelle en milieu extérieur
1.4.1 Environnement d’extérieur structuré
1.4.2 Environnement d’extérieur non structuré
1.5 Notre approche de navigation
1.6 Conclusion
Chapitre 2 Acquisition et reproduction d’images couleur
2.1 Introduction
2.2 Acquisition des images couleur
2.2.1 Caméras couleur fondées sur une mosa¨ıque Bayer
2.2.2 Ev´ olution des Caméras couleur
2.3 Demosa¨ıquage : reproduction des images couleur
2.3.1 Démosa¨ıquage par « le plus proche voisin » (PPV)
2.3.2 Démosa¨ıquage bilinéaire
2.3.3 Démosa¨ıquage par filtrage médian (Freeman)
2.3.4 Démosa¨ıquage par teinte constante
2.3.5 Démosa¨ıquage par détection de gradients
2.3.6 Interpolation adaptative par laplacien
2.3.7 Comparaison entre les techniques de démosa¨ıquage
2.4 Calibration chromatique d’images numériques
Table des matières
2.4.1 La couleur dans la reconnaissance des objets
2.4.2 La balance des blancs
2.4.3 Détection de la couleur dominante
2.4.4 Modèles d’adaptation chromatique
2.5 Correction gamma
2.5.1 Application du facteur gamma
2.5.2 Correction chromatique par courbes gamma
2.6 Conclusion
Chapitre 3 Modélisation de l’environnement : détection des régions navigables
3.1 Introduction
3.2 La segmentation couleur
3.2.1 Définition de la segmentation
3.2.2 Méthodes de segmentation couleur
3.2.3 Notre méthode de segmentation couleur
3.3 Méthodes d’estimation de la texture
3.3.1 Approches structurelles et géométriques
3.3.2 Méthodes fondées sur des modèles physiques ou templates
3.3.3 Méthodes fondées sur un filtrage
3.3.4 Modèles statistiques
3.4 Caractérisation des régions
3.4.1 Calcul des attributs de couleu
3.4.2 Calcul des attributs de texture
3.4.3 Variation des attributs de texture en fonction de la profondeur
3.5 Construction et analyse de la base d’apprentissage
3.5.1 Apprentissage supervisé de la base de données
3.5.2 Analyse Factorielle discriminante
3.5.3 Analyse en composantes principales (ACP)
3.5.4 Analyse en composantes indépendantes (ACI)
3.6 Identification et classification des régions
3.6.1 Support Vector Machines
3.6.2 La méthode des K-plus proches voisins
3.6.3 Méthodes alternatives de classification
3.6.4 Analyse contextuelle
3.7 Résultats expérimentaux sur la description 2D des scènes naturelles
3.7.1 Résultats commentés
3.7.2 Ev´ aluation globale de la méthode
3.8 Conclusions
Chapitre 4 Modélisation topologique
4.1 Introduction
4.2 Navigation topologique en milieu naturel
4.2.1 Cartes topologiques
4.2.2 Définition d’Amers
4.2.3 Etat ´ de l’art
4.3 Extraction des chemins dans la scène
4.3.1 Récupération des contours
4.3.2 Lissage de contours
4.3.3 Courbes de Bézier
4.3.4 Extraction de chemins
4.4 Modélisation du chemin par la forme
4.4.1 Représentations de la forme des objets
4.4.2 Catégorisation des chemins par Shape Context
4.4.3 Descripteur « Shape Context »
4.4.4 Mesure de similarité des points
4.4.5 Mise en correspondance des formes
4.5 Modélisation et catégorisation de chemins
4.5.1 Indexation de chemins par la forme
4.5.2 Construction du modèle topologique
4.6 Conclusion
Chapitre 5 La navigation visuelle : résultats expérimentaux
5.1 Introduction
5.2 Primitives de mouvement
5.2.1 Modèle réactif et topologique
5.2.2 Modalités de locomotion
5.3 Calcul de la trajectoire à suivre
5.3.1 Transformations géométriques de la caméra
5.3.2 Architecture de commande
5.3.3 Extraction des trajectoires
5.3.4 Transformations géométriques : supposition de sol plat
5.4 Planification des mouvements
5.4.1 Déplacement par arcs de cercle
5.4.2 Fusion temporelle des trajectoires
5.5 Suivi d’objets par le modèle de contour actifs
5.5.1 Contours actifs
5.5.2 Suivi des objets par intégration de deux processus visuels
5.5.3 Architecture de coopération visuelle
5.6 Expérimentations
5.6.1 Intégration
5.6.2 Résultats expérimentaux
5.6.3 Défaillances du module visuel
5.7 Conclusion
Conclusion générale
Annexes
Annexe A Représentation de la couleur
Glossaire
Index
Références bibliographiques

projet fin d'etudeTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *