Détection des panneaux de limitation de vitesse
De nos jours, un opérateur humain doit visionner des films afin de vérifier la présence et l’aspect des panneaux sur les routes. C’est une tâche pénible car les panneaux n’apparaissent que de temps en temps et parce que l’opérateur doit être extrêmement attentif. Répertorier les panneaux présents sur les routes permet entre autre de pouvoir réaliser des bases de données des informations utiles au conducteur (c’est notamment ce qu’utilisent les systèmes GPS embarqués). Les signes apparaissent toujours clairement dans l’environnement. Cependant, si ils sont distraits ou s’ils ont un manque de concentration, il arrive que les conducteurs ne voient pas un panneau. Or le dépassement de la vitesse limite autorisée est l’une des causes principales d’accident de la route. Il est alors important qu’un système puisse leur fournir l’information qu’ils viennent de rater et de les prévenir si ils roulent trop vite ou trop lentement. Pour des véhicules complètement autonomes (sans conducteur humain), c’est un point primordial que de reconnaître les panneaux signalétiques qui fournissent un grand nombre d’informations utiles à la navigation. Les recherches dans le domaine du TSR (Traffic Sign Recognition) ont commencé à partir des années 1980. La première approche naïve et directe est d’appliquer un filtre de corrélation croisée normalisée aux images brutes afin à la fois de détecter et de reconnaître les panneaux. Cependant cette méthode par brute force demande un temps de calcul beaucoup trop important pour être réellement envisageable (les panneaux pouvant avoir n’importe quelle taille et se trouver n’importe où dans l’image).
C’est ainsi que très vite, dans les années 1990 et encore de nos jours, des approches généralistes basées sur des méta-heuristiques (des algorithmes d’optimisation stochastique, hybridés avec une recherche locale) ont été utilisées afin de ne pas parcourir tout l’espace de recherche (i.e. la position et la taille des panneaux dans une image) et de trouver une solution optimale au problème en un temps raisonnable. Ont notamment été utilisées les approches par recuit simulé (Betke, et al., 1994), ainsi que par les algorithmes génétiques (Escalera, et al., 2003) (Aoyagi, et al., 1996). Cependant les méta-heuristiques ne garantissent pas de fournir la solution optimale au problème ni même une solution et un compromis doit être trouvé entre le temps d’exploration de l’espace de recherche et la qualité de la solution, comme le relève (Gavrila, 1999). En revanche, il est possible d’effectuer le processus de corrélation de manière complètement optique, c’est-à-dire à la vitesse de la lumière en ne manipulant que l’onde lumineuse (Horache, 2001). Cet avantage a motivé beaucoup d’auteurs pour des applications telle que la reconnaissance de formes en temps réel et notamment la détection automatique de panneaux routiers (Guibert, 1995) (Petillot, 1996) (Guibert, et al., 1995). Malheureusement les corrélateurs optiques souffrent de sévères inconvénients tels que le coût et la fragilité des composants optiques, l’encombrement de ces architectures, la nécessité d’un alignement précis pour les traitements effectués et le manque de robustesse mécanique de l’optique pour des applications embarquées.
Segmentation par couleur
Comme relevé par (Bahlmann, et al., 2005), la segmentation par la couleur est la méthode la plus couramment utilisée dans l’étape initiale qu’est la détection des panneaux. Naïvement, de nombreux panneaux étant cerclés de rouge, de nombreux travaux (de la Escalera, et al., 1997) (Kim, et al., 1997) (Zadeh, et al., 1998) (Torresen, et al., 2004) effectuent, pour détecter ceux-ci, un seuillage sur la composante rouge du modèle RGB. Dans de rares cas, l’utilisation du modèle YUV est utilisé, comme dans (Miura, et al., 2000) où ils extraient les régions blanches de l’image (qui correspondent aux zones intérieures des panneaux). Cependant, ces modèles de couleurs sont sensibles aux changements de conditions lumineuses. C’est ainsi que (Miura, et al., 2000) utilise plusieurs seuils différents pour binariser ses images, il en résulte que pour chaque image de nombreuses autres doivent être traitées, ce qui alourdit considérablement le temps de calcul en rendant l’algorithme non utilisable pour le temps réel. La plupart des travaux (Escalera, et al., 2003) (Hsien, et al., 2003) (Piccioli, et al., 1996) (Arnoul, et al., 1996) (Hibi, 1996) (Fang, et al., 2003) (Fang, et al., 2003) se basent donc généralement sur le modèle HSV (ou HSI), ou même sur l’espace de couleur Luv (Kang, et al., 1994), qui sont invariants aux changements de conditions lumineuses. Cependant, comme le stipulent (Loy, et al., 2004) (Garcia, et al., 2006), l’image provenant de la caméra n’est pas complètement invariante aux changements chromatiques de la lumière qu’elle reçoit. En effet, la composante Hue change avec les ombres, les conditions climatiques et de plus comme l’explique (Thomson, et al., 2001) la couleur des panneaux s’estompe avec le temps. Ces méthodes de segmentation par couleur peuvent donc poser problème pour la robustesse d’un système TSR et sont de plus plus coûteuses (3 canaux à traiter).