Reconnaissance automatique de plaques d’immatriculation
Le Traitement d’images
Introduction
Actuellement, le traitement d’images constitue une des plus grandes orientations des chercheurs dans le domaine du traitement de l’information acquise à travers des capteurs. Avec les potentialités des calculateurs qui ne cessent d’accroître, des algorithmes de plus en plus complexes sont envisagés pour mettre en évidence ce que l’œil peut voir. Nous avons désigné par traitement d’images numériques l’ensemble des techniques permettant de modifier une image numérique afin d’améliorer ou d’en extraire des informations. Dans ce chapitre, nous abordons d’abord les concepts de base nécessaires à la compréhension des techniques de traitement d’images, en les illustrant avec des exemples. Ensuite, nous allons donner un aperçu sur les différentes techniques connues dans ce domaine. Enfin, nous allons appliquer ces techniques pour détecter la plaque d’immatriculation.
Définition du traitement d’image
D’après Parker et Federl , le prétraitement d’images est l’ensemble des opérations effectuées sur une image, soit pour l’améliorer, soit pour la restaurer, c’est-à-dire pour restituer aussi fidèlement que possible le signal d’origine. D’une manière générale, les méthodes de prétraitement visent soit à renforcer la ressemblance des pixels d’une même région, soit au contraire à accentuer les différences de pixels provenant de régions différentes. Selon Burel [6], le traitement d’images désigne un ensemble de méthodes dont l’objectif est soit de transformer des images (par exemple pour en améliorer l’apparence, ou pour les coder de manière plus compacte en vue d’une transmission), soit d’en extraire de l’information (par exemple lorsqu’il s’agit de reconnaître automatiquement l’écriture
Définition de l’image manuscrite)
Il s’agit donc d’un domaine très vaste, qui trouve de plus en plus d’applications. Pour ne citer que quelques exemples, on peut mentionner les éléments suivants [6] : — une grande partie du courrier est maintenant triée de manière automatique, grâce à la reconnaissance automatique de l’adresse (et surtout du code postal) ; — dans le domaine industriel, le contrôle automatique par la vision est de plus en plus répandu dans les chaînes de fabrication ; — dans le domaine militaire, des dispositifs de plus en plus performants, capables de détecter et de reconnaître automatiquement leurs cibles voient le jour. La compréhension du traitement d’images commence par la compréhension de ce qu’est une image. Le type de système à bâtir ainsi que le mode et les conditions d’acquisition et de numérisation des images à traiter conditionnent largement les transformations qu’il faudra réaliser pour extraire de l’information. En effet, de nombreux paramètres entrent en jeu, les principaux étant : — la résolution d’acquisition et le mode de codage utilisé lors de la numérisation, qui déterminent le degré de précision des éventuelles mesures de dimensions ; — les réglages optiques utilisés (dont la mise au point) qui déterminent par exemple la netteté de l’image, — les conditions d’éclairage qui déterminent une partie de la variabilité des images traitées.
Définition de l’image
Houssine dans l’article [17], définit une image comme une représentation planaire d’une scène ou d’un objet situé en général dans un espace tridimensionnel, elle est issue du contact des rayons lumineux provenant des objets formant la scène avec un capteur (caméra, scanner, rayons X, …). Il ne s’agit en réalité que d’une représentation spatiale de la lumière. L’image est considérée comme un ensemble de points auquel est affecté une grandeur 17 Partie , Chapitre 2 – Le Traitement d’images physique (luminance, couleur). Ces grandeurs peuvent être continues (image analogique) ou bien discrètes (images digitales ou numériques). Mathématiquement parlant, l’image représente une fonction continue f, appelée fonction image, de deux variables spatiales représentées par f(x,y) mesurant la nuance du niveau de gris de l’image aux coordonnées (x, y). La fonction image peut se représenter sous la forme suivante : f : R 2 → R (x, y) → f(x, y) Avec R ensemble des réelles, x, y deux variables réelles.
Étapes de numerisation d’une image
Une image numérique est définie comme un signal fini bidimensionnel échantillonné à valeurs quantifiées dans un certain espace de représentation. Elle est composée d’un ensemble fini d’éléments appelés pixels (Picture Element en anglais) (voxel 3 D). Les valeurs des éléments peuvent être scalaires (images en niveau de gris), ou bien vectorielles (imagerie multicomposante, imagerie couleur). On cherche à numériser les images pour les visualiser sur un moniteur, les imprimer, les traiter sur un ordinateur, les stocker sur un support informatique ou les transmettre sur des réseaux informatiques. La procédure de numérisation d’une image se fait en trois étapes : — échantillonage (discrétisation des coordonnées de l’image) : l’échantillonnage spatial présente les images sous forme de matrice de points (pixels). C’est un procédé de discrétisation spatiale d’une image consistant à associer une valeur unique à chaque pixel. La taille d’un pixel définit la résolution spatiale. Plus la taille est petite meilleure sera la résolution. — quantification (discrétisation des intensités de l’image réelle) : la quantification désigne la discrétisation tonale correspondant à la limitation du nombre de valeurs différentes que peut prendre chaque pixel. Elle définit ainsi le nombre de niveaux de gris utilisé.
Représentation d’une image
Chaque pixel est codé sur x bits. Pour x=8 bits , on dispose d’une échelle de 256 niveaux de gris. — codage : en binaire des valeurs quantifiées. 2.5 Représentation d’une image Une image peut être représentée de différentes manières au niveau informatique :
Images binaires
Ce format permet de stocker des images en noir et blanc, c’est-à-dire dont les pixels ne peuvent prendre que deux valeurs : 0 (noir) ou 1 (blanc). Chaque pixel est codé sur un bit. Figure 2.1 – Image binaire
Images en niveau de gris (monochrome)
Le niveau de gris représente la valeur de l’intensité lumineuse en un point de l’image. La couleur du pixel peut prendre des valeurs allant du noir au blanc en passant par un nombre fini de niveaux intermédiaires. Pour la représentation des images en niveaux de gris, une valeur correspondant à la quantité de lumière renvoyée est affectée à chaque pixel de l’image. Cette valeur peut être comprise par exemple entre 0 et 255. Chaque pixel n’est donc plus représenté par un bit, mais par un octet. Figure 2.2 – Image en niveau de gris(256 couleurs) 19 Partie ,
Images en couleurs(polychrome)
Une image en couleur est obtenue en dosant trois couleurs dites primaires ou secondaires : — RGB (Red, Green, Blue) ou RVB (Rouge, Vert, Bleu) : synthèse additive des couleurs ; — YCM (Yellow, Cyan, Magenta) ou JCM (Jaune, Cyan, Magenta) : synthèse soustractive des couleurs — HSV (Hue, Saturation, Value) ou TSL (Teinte, Saturation, Luminance) — CIE (Commission Internationale de L’Éclairage) Figure 2.3 – Couleurs primaires RGB et CMY Ainsi plusieurs modes de codage de la couleur existent. Le plus utilisé est le codage Rouge, Vert, Bleu (RVB). Chaque couleur est codée sur 1 octet = 8 bits. Chaque pixel sur 3 octets c’est-à-dire 24 bits : le rouge de 0 à 255, le vert de 0 à 255, le Bleu de 0 à 255. Le principe repose sur la synthèse additive des couleurs : on peut obtenir une couleur quelconque par addition de ces 3 couleurs primaires en proportions convenables. On obtient ainsi 256 x 256 x 256 = 16777216 (plus de 16 millions de couleurs différentes). Ce principe est illustré dans le tableau 2.1 ci-dessus. Figure 2.4 – Image en couleurs 20 2.6. Qualité d’une image numérique Table 2.1 – Tableau de codage d’une image en couleur 24 bits 2.6 Qualité d’une image numérique La qualité d’une image numérique dépend, d’une part, de la qualité des images d’origine et, d’autre part, des moyens mis en œuvre pour convertir un signal analogique en signal numérique. Elle dépend aussi de : — la qualité des périphériques de numérisation de l’image, du nombre de niveaux de gris ou de couleurs enregistrées, etc. — la qualité de l’affichage à l’écran : définition de l’écran, nombre de teintes disponibles . Les critères d’appréciation de la qualité d’une image, tels que cités succinctement cidessus, dépendent largement de la structure même de l’image réaliste ou conceptuelle et de sa typologie (bitmap ou vectorielle).
Typologie des images
Les formats d’images sont divisés en deux grandes familles
Images matricielles
Encore appelée image bitmap, une image matricielle (ou image en mode point) est une image numérique dans un format de données qui se compose d’un tableau de pixels ou 21 Partie , Chapitre 2 – Le Traitement d’images de points de couleur, généralement rectangulaire, qui peut se visualiser sur un moniteur d’ordinateur ou tout autre dispositif d’affichage RVB. Lors de l’agrandissement d’une image matricielle, cette dernière devient floue car les pixels ressortent sous forme de carrés qui apparaissent sur l’écran.
Avantages — Autorisent la qualité photographique
Inconvénients
— Les fichiers peuvent être encombrants. — Leur agrandissement provoque un effet de mosaïque (les pixels agrandis deviennent des carrés visibles). — La création d’une image « à la souris » est difficile. Usage conseillé d’un périphérique de numérisation : scanner, appareil photo numérique, … — Les retouches sont délicates : effacer un élément de l’image crée un « trou ».
Images vectorielles
Elles sont utilisées pour stocker des objets géométriques (lignes, cercles plus généralement courbes et polygones). Elles offrent un stockage efficace et permettent ainsi une restitution fidèle quel que soit le zoom appliqué à l’image. Cependant ces formats sont peu appropriés pour représenter des images complexes et ne comportant pas de formes géométriques apparentes.
Avantages
— Les fichiers sont petits. — Les images sont redimensionnables sans perte de qualité, les courbes sont lissées quelques soit l’échelle d’affichage. — Les retouches sont aisées puisque les différents éléments de l’image sont indépendants.
1 Introduction générale |