APPLICATION DE LA TRANSFORMEE DE HOUGH A LA DETECTION DES RECTANGLES

Télécharger le fichier original (Mémoire de fin d’études)

ACQUISITION DES IMAGES NUMERIQUES

Généralités

Historiques

On désigne sous le terme d’image numérique toute image (dessin, icône, photographie,…) acquise, créée, traitée ou stockée sous forme binaire (c’est-à-dire composée 0 et 1).
• Acquise par des convertisseurs analogique numérique situés dans des dispositifs comme les scanners, les appareils photo ou caméscopes numériques, les cartes d’acquisition vidéo (qui numérisent directement une source comme la télévision) [3];
• Créée directement par des programmes informatiques, via la souris, les tablettes graphiques ou par la modélisation 3D (ce que l’on appelle par abus de langage les « images de synthèse »).
• Traitée grâce à des outils informatiques. Il est fa cile de la transformer, modifier en taille, en couleur, d’ajouter ou supprimer des éléments, d’appliquer des filtres variés, etc.
• Stockée sur un support informatique (disquette, disque dur, CD-ROM…)

Introduction

La description d’une image est une démarche faussement facile. S’il est vrai qu’une image consiste en un jeu de valeurs représentables, sur un écran par exemple, comprendre la nature d’une image s’avère délicate, d’autant que l’on confond souvent l’image, la visualisation et les traitements effectués sur l’image. Pour aborder la question de formation et de modélisation de l’image, nous distinguons les éléments suivants :
• La perception d’une image: elle s’articule autour d es caractéristiques du système visuel humain. Ainsi, il apparait que l’œil est sensible à certaines fréquences du spectre électromagnétique; ces fréquences représentent laumièrel en général. Dans certains cas, le rayonnement électromagnétique à observer se situe en dehors de la plage des fréquences visibles.
• La représentation d’une image: il s’agit de représenter une entité physique sous une forme électrique ou une forme informatique. La représentation joue un rôle essentiel dans une chaine de traitement car elle conditionne la capacité de stockage nécessaire ainsi que la mise en œuvre.

Quelques définitions

Voici quelques termes les plus fréquemment utiliséslorsque l’on parle des images numériques :
Définition 1.01 :
Le bit est la plus petite unité d’information utilisée dans un ordinateur. Il peut prendre deux états, ce qui peut être présente par les chiffres binaires1/0 ou par arrêt/marche. Toutes les informations d’un ordinateur sont présentées au moyen de bits.
Définition 1.02 :
L’image peut être définie comme étant la représentation d’un objet ou d’une scène, mais en parlant de numérisation, une image est définie comme étant une matrice M*N pixels.
Définition 1.03 :
Le pixel (de l’Anglais: picture element) est un point élémentaire qui constitue une image.
Le pixel n’est pas une unité de mesure arbitraire comme le centimètre, c’est le fondement même des images numériques dont c’est la plus petite unité logique. Chaque pixel peut revêtir un certain nombre de variétés de tons allant des différents veauxni de gris aux couleurs. Le nombre de bits nécessaire est plus ou moins important en fonction du nombre de couleurs ou de niveaux de gris que l’on veut représenter par pixel.
Définition 1.04 :
Le niveau de gris est un nombre équivalent compris entre 0 et 255 donnant l’information sur la luminance d’un point élémentaire (pixel).
Définition 1.05 :
L’intensité ou luminance est le caractère qui indique l’intensité de lumière perçue indépendamment de la couleur. Elle s’étend du noir au blanc avec outes les nuances de gris. Elle indique l’expression qualitative de la brillance énergétiqu.
Définition 1.06 :
La chrominance, dans le domaine audiovisuel, désigne la différence colorimétrique existant entre une couleur donnée et une couleur de référence (RVB). En informatique, désigne la partie du signal vidéo relative à la couleur de l’image.
Définition 1.07 :
Un bruit (ou parasite) dans une image est considérécomme un phénomène de brusque variation de l’intensité d’un pixel par rapport à ses voisins, il provient de l’éclairage des dispositifs optiques et électroniques du capteur.
Définition 1.08:
Les contours représentent la frontière entre les objets de l’image, ou la limite entre deux pixels dont les niveaux de gris représentent une différenc significative.
Les textures décrivent la structure des objets de ’imagel. L’extraction de contour consiste à identifier dans l’image les points qui séparent deux textures différentes.

Domaines d’application du traitement d’images

On peut distinguer trois grands domaines d’applicat ions faisant appel au traitement d’image [4]:
• Sur l’imagerie aérienne et spatiale :
– Amélioration des images satellites,
– Analyse des ressources terrestres,
– Cartographie automatique, analyse météo (exemple: étectiond de couverture nuageuse)
• Sur les technologies biomédicales :
– Images scanner, échographie, RMN,
– Reconnaissance automatique de cellules ou de chromosomes, comptage (cellule cancéreux par exemple), ostéodensimétrie (exemple réventionp de l’ostéoporose par calcul sur image du taux de calcium osseux), etc.
• Dans le domaine robotique :
– Assemblage de pièces, contrôle qualité (exemple identification de code barre d’une pièce par traitement d’image), robotique mobile
– Stéréovision (3D) « oumesure stéréoscopiqueest une méthode de mesure qui consiste à se servir de la prise d’images (photographiques ou numériques) sous différents angles de vue pour déterminer les dimensions, les formes ou les positions d’objets ».
Et aussi :
• L’astronomie, la chimie, la physique nucléaire (identification de la trajectoire de particules), l’armement (guidage de missiles, Reconnaissance Des Formes)
• La télésurveillance (exemple radar automatique : recherche en temps réel d’un véhicule par reconnaissance de son immatriculation parmi un flot de véhicules circulant sur le boulevard périphérique par caméra fixe).

Perceptions visuelles

Avant d’entrer plus en détail dans l’étude sur desimages, commençons par quelques notions sur le Système Visuel Humain. Assez paradoxalement, il s’agit d’une des taches les plus complexes car le fonctionnement du système visuel humain fait intervenir la subjectivité de l’observateur et car, en pratique, il apparait difficile d’inclure la plupart des résultats des études psycho visuelles dans un traitement d’image courant [5].

Le système visuel humain (SVH)

Grace a la cornée (l’enveloppe translucide de l’œil ) et l’iris (qui en se refermant permet de doser la quantité de la lumière), une image se forme sur larétine. Celle-ci est sensible aux rayonnements électromagnétiques de longueur d’onde comprise entr380 et 700 nm. Elle est composée de petits bâtonnets et de trois cônes : les bâtonnets permett ent de percevoir la luminosité et le mouvement, tandis que les cônes permettent de différencier les couleurs.
De forme approximativement sphérique, l’œil est l’o rgane de base de la vision. Il comporte un ensemble d’éléments destinés à recevoir le rayonnement incident, former l’image des objets perçus et traiter les informations recueillies.
Comme le montre la figure 1.01, l’œil humain est co nstitué de :
• La conjonctive : c’est une solide membrane blanche, opaque aux ra yons lumineux, servant à attacher l’œil dans son orbite.
• La cornée: il s’agit d’une membrane transparente et résistante située sur la face avant de l’œil. Son rôle est de protéger le globe oculaire s ur la face avant.
• L’iris : il fonctionne comme un diaphragme en dosant la quantité de lumière qui pénètre dans l’œil. Son ouverture centrale est la pupille.
• Le cristallin : il fonctionne comme une lentille à focale variab le, grâce à sa capacité de modifier sa courbure.
• La rétine : c’est sur elle que se forment les images provena nt de l’extérieur. La rétine contient deux types de cellules photosensibles : les cônes et les bâtonnets.
• La macula : appelée également tache jaune, contient en son entrec une petite d’expression, la fovéa. Cette dernière est la zone d’acuité maximum de l’œil.
• Le nerf optique : il conduit les informations au cerveau, en passant par un relais très important, le corps genouillé latéral, chargé d’effectuer une première analyse des données.

Perception des couleurs

C’est par la lumière que la couleur existe. Elle ne réside pas dans l’objet mais dans la lumière qui les éclaire et dans leur propriété à absorber certaines radiations tout en réfléchissant d’autres. La couleur n’est donc qu’une impression, un effet phys iologique produit par notre cerveau et dont les causes sont captées par nos sens.
Nous allons ici faire quelques rappels quant aux relations lumière-matière et donner quelques éléments de compréhension du système visuel humain.
• La source lumineuse utilisée ;
• La géométrie d’observation (angles d’éclairement etd’observation) ;
• La scène et ses caractéristiques physiques ;
• L’œil de l’observateur, avec les qualités et les dé fauts propres à chaque individu ;
• Le cerveau de l’observateur, dont la capacité de discernement des couleurs évolue en fonction de l’âge et de l’expérience acquise.

La lumière

La lumière couvre une partie du spectre d’énergie lectromagnétique. Un rayonnement électromagnétique est en général constitue d’un taincer nombre de longueurs d’onde (ou fréquences) que les dispositifs dispersifs permettent de séparer en un spectre. En un mot, la lumière est une distribution d’énergie émise à certaines fréquences ayant une certaine intensité [5].
• T désigne la période de l’onde
Les études des trois espèces de cônes et les phénomènes complexes qui permettent de percevoir les sensations colorées aboutissent à dire que l’œi l n’est sensible qu’à trois plages de radiation ayant pour maximum :
• 450 nm pour le bleu.
• 525 nm pour le vert.
• 625 nm pour le rouge.
(Higher Frequency= très haute fréquence, Lower Frequency= plus basse fréquence et Wavelength = Longueur d’onde en nano-mètre (nm)).
La nature trichrome de l’image permet de recréer n’importe quelles couleurs avec le mélange du rouge, vert et bleu. Le système RGB (de l’Anglais Red, Green et Blue) ou RVB
(Rouge, Vert et Bleu en Français) est alors le plus utilise comme système de base sur l’écran informatique et dans le traitement d’image. Ces tro is couleurs sont alors dénommées «couleurs primaires ».

Synthèse de couleurs

Dans la chaine de création d’image, deux méthodes onts utilises pour couvrir la quasi totalité du spectre visible : la synthèse additive et la synthèse soustractive.

Synthèse additive 

La synthèse additive consiste à restituer une couleur par addition de trois sources lumineuses rouge, vert et bleu (RVB) [RGB : Red, Green, Blue]. Ce procédé est utilisé dans les tubes cathodiques. La combinaison des trois composantes Rouge, Vert, Bleu donne du blanc. L’absence de composante donne du noir. Les couleurs secondaires sont le cyan, le magenta et le jaune car :
• Le vert combine au bleu donne du cyan
• Le bleu combine au rouge donne du magenta
• Le vert combine au rouge donne du jaune

Synthèse soustractive

La synthèse soustractive permet de restituer une couleur par soustraction, à partir d’une source de lumière blanche, avec des filtres correspondant aux couleurs complémentaires: jaune, magenta et cyan. Ce procédé est utilisé en photographie et pour l’impression des couleurs.
Où r, v, et b représentant les quantités de chaquecouleur dans une échelle appropriée 0-100 (ou 0-255 pour une quantification sur un octet par composant).
De la même façon on peut définir une couleur dans el système de référence complémentaire (Cyan, Magenta, Jaune) : = ++ (1.03)
Le passage d’un système à l’autre se fait par les r elations : = 100 − ; = 100 − ; =100− L’ajout de ces trois couleurs donne du noir et leu r absence produit du blanc. Les composantes de la lumière sont ajoutées après réflexion sur un objet, ou plus exactement sont absorbées par la matière. Bleu, Rouge, Vert sont devenus les couleurs secondaires car :
• Le magenta combine avec le cyan donne du bleu
• Le magenta combine avec le jaune du rouge
• Le cyan combine avec le jaune du vert
Figure 1.04 : Synthèses additive et soustractive
Remarque:
La synthèse soustractive est utilisée pour l’impresion sur feuille blanche car la détermination des composantes RVB d’une onde s’opère par addition sur fond noir. L’arrière plan est donc suppose absorbant pour toutes les couleurs. Un tel système n’est pas adéquat pour traiter l’impression sur feuille blanche car cette dernière réfléchit l’ensemble des couleurs. Le système utilisé est alors le CMY (Cyan Magenta Yellow).

Acquisition et numérisation de l’image

Principe

Avec un seul œil, capteur a deux dimensions, l’homm e peut interpréter les trois dimensions dans lesquelles il évolue. Un capteur d’images est donc un appareil sensible aux mêmes types d’informations que celle perçues par l’œil. En fait , l’œil n’est sensible qu’aux variations:

Temporelles

L’apparition subite d’une forme dans notre champ de vision attire instantanément notre attention.

Spatiales

L’œil est instinctivement attire par les transition s brutales de niveau de luminance.
Une transition entre deux zones homogènes sera naturellement accentuée par l’œil.

Numérisation de l’image

Une image « réelle » va être transformée en une image numérique par différents outils de transformation (camera ou appareil photo numérique, scanner, satellite, …). Tous ces systèmes peuvent être comparés à des capteurs. L’image numérique, est le terme utilisé pour designer une photo, une image existant sous forme de fichier informatique, c’est-à-dire que l’on peut visionner sur un ordinateur.
L’image reçue est fonction des caractéristiques du capteur. Le passage de l’information continue à une information discrète doit s’effectuer avec un minimum de dégradation de l’information. Après, l’information est représentée sous forme detableau de mots binaires de longueur finie. Autrement dit, numériser une image c’est lui donner une représentation électronique à partir de l’objet réel.

Les étapes de numérisation de l’image

Echantillonnage 

L’échantillonnage des images est la première étapede la numérisation des images. Elle est la restriction d’une fonction d’un espace sur un espac e plus petit. Une image échantillonnée est habituellement représentée sous la forme de « pixels », des carrés où l’intensité de l’image est constante. L’échantillonnage détermine la taille dechaque pixel. Cette taille est fonction de la résolution du capteur. Les contraintes physiques imposent ensuite les dimensions maximales de l’image (nombre de pixels en ligne et en colonne).
L’échantillonnage consiste à prélever les valeurs nstantanéesi d’un signal s(t) à des intervalles réguliers séparés par une période d’échantillonnageT. Mathématiquement, le signal échantillonné est le résultat du produit du signal avec la « peigne de Dirac ».

Table des matières

INTRODUCTION
CHAPITRE 1 : ACQUISITION DES IMAGES NUMERIQUES
1.1 Généralités
1.1.1 Historiques
1.1.2 Introduction
1.1.3 Quelques définitions
1.1.4 Domaines d’application du traitement d’images
1.2 Perceptions visuelles
1.2.1 Le système visuel humain (SVH)
1.2.2 Perception des couleurs
1.2.2.1 La lumière
1.2.2.2 Notion de couleurs
1.2.2.3 Synthèse de couleurs
1.3 Acquisition et numérisation de l’image
1.3.1 Principe
1.3.1.1 Temporelles
1.3.1.2 Spatiales
1.3.2 Numérisation de l’image
1.3.2.1 Les étapes de numérisation de l’image
1.3.2.2 Caractéristiques des images numériques
1.3.2.3 Les différents types de représentation d’image
1.4 Les différents types de formats d’images
1.5 Propriétés d’une image numérique
1.5.1 Résolution et dimension (ou définition)
1.5.1.1 Définition
1.5.1.2 Résolution
1.5.2 Représentation des couleurs
1.6 Amélioration d’image
1.6.1 Rehaussement de dynamique
1.6.1.1 Extension de dynamique
1.6.1.2 Egalisation d’histogramme
1.6.2 Réduction du bruit dans les images
1.6.2.1 Filtre moyenneur ou lissage par la moyenne
1.6.2.2 Filtre de Gauss ou lissage Gaussien
1.6.2.3 Filtrage utilisant le Laplacien
1.7 La détection de contour
1.7.1 Calcul direct des dérivées
1.7.2 Segmentation par seuillage
1.8 Conclusion
CHAPITRE 2 : DESCRIPTION DE CONTOURS
2.1 Notions du Pavage et maillage
2.2 Adjacences
2.3 Description de contours (caractérisation de la forme par ses contours)
2.3.1 Représentation des contours
2.3.1.1 Code de Freeman
2.3.1.2 Code de Freeman relatif
2.3.1.3 Descripteur de Fourier
2.3.2 Approximations polynomiales
2.3.2.1 Approximation d’un nuage de points par une droite unique
2.3.2.2 Approximations polygonales, simplification de contours polygonaux
2.4 Conclusion
CHAPITRE 3 : TRANSFORMEE DE HOUGH
3.1 Introduction
3.2 Propriétés de la transformée de Hough
3.3 Transformée directe
3.4 Transformée inverse
3.5 Algorithme de la transformée de Hough
3.5.1 Pour l’équation de droite de la forme
3.5.2 Exemple
3.5.3.1 Mise en oeuvre
3.5.3.2 L’algorithme
3.5.4 Exemple
3.6 Les différentes transformées de Hough
3.6.1 La transformée de Hough standard
3.6.2 La transformée de Hough généralisée
3.6.3 La transformée de Hough pondérée
3.7 Avantages et inconvénients
3.7.1 Avantages
3.7.2 Inconvénients
3.8 Conclusion
CHAPITRE 4 : APPLICATION DE LA TRANSFORMEE DE HOUGH A LA DETECTION DES RECTANGLES
4.1 Introduction
4.2 Hypothèse
4.3 Généralité sur le rectangle
4.3.1 Propriété d’un rectangle
4.3.2 Exemple d’un rectangle
4.4 Les différentes étapes pour reconnaître un rectangle dans une image
4.4.1 Détection de contours
4.4.2 Extraction de contours
4.4.2.1 La première dérivée d’une image (approche gradient):
4.4.2.2 La seconde dérivée de l’image (approche Laplacien)
4.4.3 Transformation de l’espace image en espace Hough
4.4.4 Recherche des pics dans l’accumulateur
4.4.5 Recherche des pics qui sont parallèles (pics réguliers)
4.4.6 Recherche des pics prolongés (le pic qui correspond à un rectangle)
4.4.7 Détection d’une droite
4.4.8 Détection des droites qui sont parallèles
4.4.9 Détection des droites qui sont perpendiculaires
4.5 Applications «détection d’un rectangle»
CONCLUSION
ANNEXE 1 : Les fonctions de base
ANNEXE 2 : Quelques codes de l’interface de simulation
ANNEXE 3: Utilisation du logiciel
BIBLIOGRAPHIE

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *