Contribution à la segmentation d’image par classification floue optimisée par essaim particulaire mono-objectif

Contribution à la segmentation d’image par classification floue optimisée par essaim particulaire mono-objectif

Dans ce chapitre, nous présentons une méthode de segmentation d’image basée sur la mé- thode de groupement des données c-moyennes floues (en anglais « Fuzzy C-means »(FCM)).La méthode FCM est largement utilisée en segmentation d’image, car, en plus de son ecacité, simplicité et rapidité, cette méthode est basée sur le principe de la logique floue, ce qui per- met de définir des ensembles d’une manière plus souple, tolérant des informations imprécises, incomplètes et/ou incertaines. Ce qui est souvent le cas pour les images médicales. Cependant cette méthode présente quelques inconvénients liés au blocage dans des minima locaux et à la métrique de distance. La méthode que nous proposons dans ce chapitre permet de remédier à ces inconvénients.L’algorithme des c-moyennes floues (FCM) est une méthode de classification non-supervisée de données (regroupement de données) basée sur le principe de la logique floue où chaque exemple de données n’appartient pas uniquement à une seule classe, mais à toutes les classes avec certains degrés d’appartenance. Cette méthode fait partie des méthodes dites « méthodes des centres mobiles » où chaque classe est représentée par son centre (prototype), plus une donnée est proche d’un centre de classe, plus important est son degré d’appartenance à cette classe. L’objectif de cette méthode est donc de trouver à la fois les positions des centres des classes et les degrés d’appartenance des données aux diérentes classes, en minimisant un cri- tère quadratique de distance (Eq. (II.1)).

Le problème d’optimisation de la fonction objectif (Eq. (II.1)) sous les contraintes (Eqs. (II.2)) est un problème mal-posé, car les degrés d’appartenance uij et les centres des classes ci ne peuvent être déterminés simultanément. Afin de résoudre ce problème, une procédure d’alternance est utilisée. En eet, en première étape, les degrés d’appartenance sont détermi- nés en supposant les centres des classes fixes. En deuxième étape, les centres des classes sont déterminés en supposant les degrés d’appartenance fixes. Ces deux étapes sont répétées jusqu’à convergence de l’algorithme. Pour résoudre le problème d’optimisation avec contraintes, le pro- blème est transformé en un problème sans contraintes à l’aide des multiplicateurs de Lagrange (Eq. (II.3)) :Les performances de l’algorithme des c-moyennes floues dépendent énormément de la confi- guration initiale des centres des classes. Afin de pallier cet inconvénient, une des solutions, souvent utilisée, mais pas nécessairement la meilleure, consiste à exécuter l’algorithme en uti- lisant diérentes configurations initiales dans l’espoir de trouver la meilleure solution globale. Toutefois, cette solution ne présente aucune garantie de convergence de l’algorithme vers l’op- timum global, surtout dans le cas où le nombre de classes est important. Une autre solution,que nous jugeons plus ecace, consiste à exécuter l’algorithme une seule fois, en utilisant une métaheuristique d’optimisation, afin d’échapper aux optimums locaux et de se rapprocher au mieux de l’optimum global.

LIRE AUSSI :  MYTHANALYSE DU FUTUR

L’avantage des métaheuristiques réside dans leur robustesse pour résoudre les problèmes d’optimisation diciles aux données incertaines, incomplètes ou trop bruitées. La solution four- nie par les métaheuristiques d’optimisation est généralement une solution sous-optimale, sou- vent proche de l’optimale. Comme nous l’avons montré dans le chapitre 2, il existe plusieurs métaheuristiques d’optimisation dans la littérature. Pour notre problème nous avons choisi l’op- timisation par essaim particulaire (OEP). En plus des performances et de la reproductibilité de ses résultats dans plusieurs problèmes, cette métaheuristique est principalement conçue pour résoudre les problèmes d’optimisation à variables continues. Ce qui est le cas pour les méthodes de groupement ou de classification de données basées sur les centres mobiles où chaque centre représente une variable continue dans l’espace des attributs.Dans le but d’optimiser l’étape d’initialisation de l’algorithme des c-moyennes floues, on uti- lise l’OEP afin de trouver la meilleure configuration initiale des positions des centres de classes. Ces centres de classes sont considérés comme une solution proche de la solution optimale et seront fignolés par l’algorithme des c-moyennes floues afin d’approcher au mieux l’optimum global.

La méthode OEP peut être considérée comme une procédure de recherche globale et la méthode FCM comme une procédure de recherche locale. Cette complémentarité est profitable et garantit des résultats plus performants.Dans notre problème, les particules correspondent à des configurations constituées de nombres réels représentant les centres des diérentes classes. Pour un nombre de classes C, chaque par- ticule serait donc un vecteur de taille C où chaque composante représente un centre de classe. Une fois le nombre de classes fixé, les positions et les vitesses des particules sont initialisées aléatoirement. Les centres des classes sont initialisés dans la plage des niveaux de gris de l’image.

 

Cours gratuitTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *