Reconnaissance automatique de plaques d’immatriculation

Reconnaissance automatique de plaques d’immatriculation

Le Traitement d’images

 Introduction 

Actuellement, le traitement d’images constitue une des plus grandes orientations des chercheurs dans le domaine du traitement de l’information acquise à travers des capteurs. Avec les potentialités des calculateurs qui ne cessent d’accroître, des algorithmes de plus en plus complexes sont envisagés pour mettre en évidence ce que l’œil peut voir. Nous avons désigné par traitement d’images numériques l’ensemble des techniques permettant de modifier une image numérique afin d’améliorer ou d’en extraire des informations. Dans ce chapitre, nous abordons d’abord les concepts de base nécessaires à la compréhension des techniques de traitement d’images, en les illustrant avec des exemples. Ensuite, nous allons donner un aperçu sur les différentes techniques connues dans ce domaine. Enfin, nous allons appliquer ces techniques pour détecter la plaque d’immatriculation.

 Définition du traitement d’image 

D’après Parker et Federl , le prétraitement d’images est l’ensemble des opérations effectuées sur une image, soit pour l’améliorer, soit pour la restaurer, c’est-à-dire pour restituer aussi fidèlement que possible le signal d’origine. D’une manière générale, les méthodes de prétraitement visent soit à renforcer la ressemblance des pixels d’une même région, soit au contraire à accentuer les différences de pixels provenant de régions différentes. Selon Burel [6], le traitement d’images désigne un ensemble de méthodes dont l’objectif est soit de transformer des images (par exemple pour en améliorer l’apparence, ou pour les coder de manière plus compacte en vue d’une transmission), soit d’en extraire de l’information (par exemple lorsqu’il s’agit de reconnaître automatiquement l’écriture 

Définition de l’image manuscrite)

 Il s’agit donc d’un domaine très vaste, qui trouve de plus en plus d’applications. Pour ne citer que quelques exemples, on peut mentionner les éléments suivants [6] : — une grande partie du courrier est maintenant triée de manière automatique, grâce à la reconnaissance automatique de l’adresse (et surtout du code postal) ; — dans le domaine industriel, le contrôle automatique par la vision est de plus en plus répandu dans les chaînes de fabrication ; — dans le domaine militaire, des dispositifs de plus en plus performants, capables de détecter et de reconnaître automatiquement leurs cibles voient le jour. La compréhension du traitement d’images commence par la compréhension de ce qu’est une image. Le type de système à bâtir ainsi que le mode et les conditions d’acquisition et de numérisation des images à traiter conditionnent largement les transformations qu’il faudra réaliser pour extraire de l’information. En effet, de nombreux paramètres entrent en jeu, les principaux étant : — la résolution d’acquisition et le mode de codage utilisé lors de la numérisation, qui déterminent le degré de précision des éventuelles mesures de dimensions ; — les réglages optiques utilisés (dont la mise au point) qui déterminent par exemple la netteté de l’image, — les conditions d’éclairage qui déterminent une partie de la variabilité des images traitées.

Définition de l’image 

Houssine dans l’article [17], définit une image comme une représentation planaire d’une scène ou d’un objet situé en général dans un espace tridimensionnel, elle est issue du contact des rayons lumineux provenant des objets formant la scène avec un capteur (caméra, scanner, rayons X, …). Il ne s’agit en réalité que d’une représentation spatiale de la lumière. L’image est considérée comme un ensemble de points auquel est affecté une grandeur 17 Partie , Chapitre 2 – Le Traitement d’images physique (luminance, couleur). Ces grandeurs peuvent être continues (image analogique) ou bien discrètes (images digitales ou numériques). Mathématiquement parlant, l’image représente une fonction continue f, appelée fonction image, de deux variables spatiales représentées par f(x,y) mesurant la nuance du niveau de gris de l’image aux coordonnées (x, y). La fonction image peut se représenter sous la forme suivante : f : R 2 → R (x, y) → f(x, y) Avec R ensemble des réelles, x, y deux variables réelles.

Étapes de numerisation d’une image

Une image numérique est définie comme un signal fini bidimensionnel échantillonné à valeurs quantifiées dans un certain espace de représentation. Elle est composée d’un ensemble fini d’éléments appelés pixels (Picture Element en anglais) (voxel 3 D). Les valeurs des éléments peuvent être scalaires (images en niveau de gris), ou bien vectorielles (imagerie multicomposante, imagerie couleur). On cherche à numériser les images pour les visualiser sur un moniteur, les imprimer, les traiter sur un ordinateur, les stocker sur un support informatique ou les transmettre sur des réseaux informatiques. La procédure de numérisation d’une image se fait en trois étapes : — échantillonage (discrétisation des coordonnées de l’image) : l’échantillonnage spatial présente les images sous forme de matrice de points (pixels). C’est un procédé de discrétisation spatiale d’une image consistant à associer une valeur unique à chaque pixel. La taille d’un pixel définit la résolution spatiale. Plus la taille est petite meilleure sera la résolution. — quantification (discrétisation des intensités de l’image réelle) : la quantification désigne la discrétisation tonale correspondant à la limitation du nombre de valeurs différentes que peut prendre chaque pixel. Elle définit ainsi le nombre de niveaux de gris utilisé. 

 Représentation d’une image 

Chaque pixel est codé sur x bits. Pour x=8 bits , on dispose d’une échelle de 256 niveaux de gris. — codage : en binaire des valeurs quantifiées. 2.5 Représentation d’une image Une image peut être représentée de différentes manières au niveau informatique :

Images binaires 

Ce format permet de stocker des images en noir et blanc, c’est-à-dire dont les pixels ne peuvent prendre que deux valeurs : 0 (noir) ou 1 (blanc). Chaque pixel est codé sur un bit. Figure 2.1 – Image binaire 

 Images en niveau de gris (monochrome) 

Le niveau de gris représente la valeur de l’intensité lumineuse en un point de l’image. La couleur du pixel peut prendre des valeurs allant du noir au blanc en passant par un nombre fini de niveaux intermédiaires. Pour la représentation des images en niveaux de gris, une valeur correspondant à la quantité de lumière renvoyée est affectée à chaque pixel de l’image. Cette valeur peut être comprise par exemple entre 0 et 255. Chaque pixel n’est donc plus représenté par un bit, mais par un octet. Figure 2.2 – Image en niveau de gris(256 couleurs) 19 Partie ,

Images en couleurs(polychrome)

 Une image en couleur est obtenue en dosant trois couleurs dites primaires ou secondaires : — RGB (Red, Green, Blue) ou RVB (Rouge, Vert, Bleu) : synthèse additive des couleurs ; — YCM (Yellow, Cyan, Magenta) ou JCM (Jaune, Cyan, Magenta) : synthèse soustractive des couleurs — HSV (Hue, Saturation, Value) ou TSL (Teinte, Saturation, Luminance) — CIE (Commission Internationale de L’Éclairage) Figure 2.3 – Couleurs primaires RGB et CMY Ainsi plusieurs modes de codage de la couleur existent. Le plus utilisé est le codage Rouge, Vert, Bleu (RVB). Chaque couleur est codée sur 1 octet = 8 bits. Chaque pixel sur 3 octets c’est-à-dire 24 bits : le rouge de 0 à 255, le vert de 0 à 255, le Bleu de 0 à 255. Le principe repose sur la synthèse additive des couleurs : on peut obtenir une couleur quelconque par addition de ces 3 couleurs primaires en proportions convenables. On obtient ainsi 256 x 256 x 256 = 16777216 (plus de 16 millions de couleurs différentes). Ce principe est illustré dans le tableau 2.1 ci-dessus. Figure 2.4 – Image en couleurs 20 2.6. Qualité d’une image numérique Table 2.1 – Tableau de codage d’une image en couleur 24 bits 2.6 Qualité d’une image numérique La qualité d’une image numérique dépend, d’une part, de la qualité des images d’origine et, d’autre part, des moyens mis en œuvre pour convertir un signal analogique en signal numérique. Elle dépend aussi de : — la qualité des périphériques de numérisation de l’image, du nombre de niveaux de gris ou de couleurs enregistrées, etc. — la qualité de l’affichage à l’écran : définition de l’écran, nombre de teintes disponibles . Les critères d’appréciation de la qualité d’une image, tels que cités succinctement cidessus, dépendent largement de la structure même de l’image réaliste ou conceptuelle et de sa typologie (bitmap ou vectorielle). 

 Typologie des images 

Les formats d’images sont divisés en deux grandes familles 

 Images matricielles

Encore appelée image bitmap, une image matricielle (ou image en mode point) est une image numérique dans un format de données qui se compose d’un tableau de pixels ou 21 Partie , Chapitre 2 – Le Traitement d’images de points de couleur, généralement rectangulaire, qui peut se visualiser sur un moniteur d’ordinateur ou tout autre dispositif d’affichage RVB. Lors de l’agrandissement d’une image matricielle, cette dernière devient floue car les pixels ressortent sous forme de carrés qui apparaissent sur l’écran.

Avantages — Autorisent la qualité photographique

Inconvénients

 — Les fichiers peuvent être encombrants. — Leur agrandissement provoque un effet de mosaïque (les pixels agrandis deviennent des carrés visibles). — La création d’une image « à la souris » est difficile. Usage conseillé d’un périphérique de numérisation : scanner, appareil photo numérique, … — Les retouches sont délicates : effacer un élément de l’image crée un « trou ». 

 Images vectorielles

 Elles sont utilisées pour stocker des objets géométriques (lignes, cercles plus généralement courbes et polygones). Elles offrent un stockage efficace et permettent ainsi une restitution fidèle quel que soit le zoom appliqué à l’image. Cependant ces formats sont peu appropriés pour représenter des images complexes et ne comportant pas de formes géométriques apparentes. 

 Avantages 

— Les fichiers sont petits. — Les images sont redimensionnables sans perte de qualité, les courbes sont lissées quelques soit l’échelle d’affichage. — Les retouches sont aisées puisque les différents éléments de l’image sont indépendants.

Table des matières

1 Introduction générale
1.1 Introduction
1.2 Problématique
1.3 Objectifs du stage
1.4 Reconnaissance automatique de plaques d’immatriculation
1.4.1 Utilisation des propriétés de la plaque
1.4.2 Utilisation des contours morphologiques
1.4.3 Utilisation de l’intelligence artificielle
1.4.4 Utilisation de la signature de la plaque
1.5 Notre Approche
1.6 Plan de mémoire
2 Le Traitement d’images
2.1 Introduction
2.2 Définition du traitement d’image
2.3 Définition de l’image
2.4 Étapes de numerisation d’une image
2.5 Représentation d’une image
2.5.1 Images binaires .
2.5.2 Images en niveau de gris (monochrome)
2.5.3 Images en couleurs(polychrome)
2.6 Qualité d’une image numérique
2.7 Typologie des images
2.7.1 Images matricielles
2.7.1.1 Avantages
2.7.1.2 Inconvénients
2.7.2 Images vectorielles
2.7.2.1 Avantages
2.7.2.2 Inconvénients
2.8 Caractéristique d’une image numérique
2.8.1 Pixel
2.8.2 Dimension
2.8.3 Bruit
2.8.4 Résolution
2.8.5 Luminance
2.8.6 Contraste
2.8.7 Similarité
2.8.8 Histogramme
2.9 Les principales étapes de traitement d’images
2.9.1 Acquisition des images numériques
2.9.2 Traitement des images numériques
2.9.2.1 Modification d’histogramme
2.9.2.1.1 Expansion du dynamique
2.9.2.1.2 Égalisation d’histogramme
2.9.2.2 Réduction du bruit
2.9.2.2.1 Filtre linéaire
2.9.2.2.1.1 Filtre passe-bas (Lissage)
2.9.2.2.1.2 Filtre passe-haut
2.9.2.2.2 Filtre non linéaire
2.9.2.2.2.1 Filtre médian
2.9.2.2.2.2 Filtre morphologique
2.10 Conclusion
3 Principe de détection de la plaque d’immatriculation
3.1 Introduction
3.2 Les étapes de la détection de plaques
3.2.1 Extraction en utilisant les contours verticaux
3.2.1.1 Détection de bord d’une image
3.2.1.1.1 Matrice de convolution
3.2.1.1.2 Détection de bords horizontal et vertical
3.2.1.2 Projection d’image horizontale et verticale
3.2.1.3 Analyse d’images statistiques en deux phases
3.2.1.3.1 Détections des bandes verticales
3.2.1.3.2 Détections des régions de plaques
3.2.1.4 Analyse heuristique et sélection de la plaque
3.2.2 Mesure de performance de la détection de plaques
3.3 Conclusion
4 Principe de la segmentation des plaques
4.1 Introduction
4.2 Généralité sur la segmentation d’images
4.2.1 Segmentation fondée sur les frontières(contours)
4.2.1.1 Méthodes dérivatives
4.2.1.1.1 Méthode par Gradient
4.2.1.1.2 Méthode laplacien
4.2.1.2 Méthodes analytiques
4.2.1.2.1 Approche de Canny et Deriche
4.2.2 Segmentation par région
4.2.2.1 Segmentation par seuillage
4.2.2.1.1 Approche globale
4.2.2.1.2 Approche locale
4.2.2.2 Segmentation par croissance de régions
4.2.2.2.1 Approche par fusion
4.2.2.2.2 Approche par division
4.2.2.2.3 Approche par division-fusion
4.2.3 Approche par classification de pixels
4.3 Segmentation de la plaque par projection horizontale
4.4 Extraction des caractères à partir des segments
4.5 Normalisation de la luminosité et du contraste
4.6 Redimensionnement des caractères
4.7 Mesure de performances sur la segmentation
4.8 Conclusion
5 La reconnaissance des caractères
5.1 Introduction
5.2 Grammaire des immatriculations de véhicules sénégalais
5.3 Réseau de neurones
5.3.1 Fonctionnement général d’un réseau de neurones
5.3.2 Avantages et inconvénients des réseaux de neurones
5.4 K plus proche voisin
5.4.1 Principe de fonctionnement
5.4.2 Avantages et inconvénients de la méthode k-nearest neighbors (KNN)
5.5 Construction de la base d’exemples
5.6 Principe de reconnaissance des caractères par réseau de neurone
5.6.1 Architecture des réseaux
5.6.2 Implémentation
5.7 Principe de reconnaissance de caractères par KNN
5.8 Études expérimentales et Présentations des résultats
5.8.1 Critère d’évaluation
5.8.2 Présentation des résultats
5.9 Conclusion

 

projet fin d'etudeTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *