Cours chromosome des poids synaptiques, tutoriel & guide de travaux pratiques en pdf.
TRAVAIL EFFECTUE
Ce travail se divise en deux parties,
la première partie étant la classification par les trois méthodes (méthode neuronale, neuro-génétique paramétrique, neuro-génétique structurel)
la seconde décrit comment nous avons procédé pour illustrer le principe multi agents et ceci à l‟aide des outils cités précédemment.
Classification mono-agents
Dans ce qui suit nous détaillons les démarches suivies afin de réaliser la classification
Classification neuronale (CNC)
•Implémentation d’un RNMC (réseau de neurone multicouches)
Apprentissage structurel
Nombre de neurones d‟entrée : nous avons utilisé 9 neurones (les 9 vecteurs d‟entrées), nous avons jugé d‟enlever le premier(le code de la patiente) vu qu‟il n‟a pas un impact sur les résultats
Nombre de neurones cachés : après plusieurs expérimentations, nous avons fixé le nombre de neurones à 15
Nombre de neurones de sortie : nous avons utilisé un seul neurone représentant la classe
Remarque : La fonction d‟activation pour les neurones cachés est ‟logsig‟
La fonction d‟activation pour la couche de sortie est ‟purelin‟
Figure IV.22 : Architecture du réseau RNMC
Apprentissage paramétrique
•Choix de l’algorithme d’apprentissage
L’algorithme d’apprentissage utilisé c’est l’algorithme de rétro propagation par la méthode de Levenberg-Marquardt (LM)
Cet algorithme est utilisé dans les réseaux de type feed forward, ce sont des réseaux de neurones à couches, ayant une couche d‟entrée, une couche de sortie, et au moins une couche cachée. Il n‟y a pas de récursivité dans les connexions, et pas de connexions entre neurones de la même couche. Le principe de la rétro propagation consiste à présenter au réseau un vecteur d‟entrées, de procéder au calcul de la sortie par propagation à travers les couches, de la couche d‟entrée vers la couche de sortie en passant par les couches cachées. Cette sortie obtenue est comparée à la sortie désirée, une erreur est alors obtenue. A partir de cette erreur, est calculé la sortie qui est à son tour propagé de la couche de sortie vers la couche d‟entrée, d‟où le terme de rétro propagation. Cela permet la modification des poids du réseau et donc l‟apprentissage. L‟opération est réitérée pour chaque vecteur d‟entrée et cela jusqu‟à ce que le critère d‟arrêt soit vérifié.
Classifieur neuro-génétique
Pour ce classifieur, nous avons débuté par la même architecture que le RNMC
Apprentissage paramétrique
En premier lieu une population initiale est crée (taille de la population fixé expérimentalement, en ce qui nous concerne nous avons utilisé N=100) avec des poids aléatoires compris entre -1,0 à + 1,0. une fois le jeu de poids généré il sera représenté sous la forme d‟un chromosome Sachant que le chromosome est une collection de gènes (voir chapitre 3); et qu‟en ce qui nous concerne nous avons gardé la structure suivante (9-3-1) avec 30 connections (liens pondérés entre un neurone et un autre), le chromosome sera alors représenté par 30 gènes.
Maintenant, nous évaluons les performances de chaque chromosome en définissant la fonction fitness ; dans notre cas nous avons utilisé le calcul de l‟erreur quadratique
Selon les résultats obtenus, les meilleurs chromosomes (ayant l‟erreur quadratique la plus petite) sont sélectionnés (Stochastique Uniform), mutés(Gaussian) et croisés (Pc=0.8) formant ainsi une nouvelle population
La procédure se répète jusqu‟à atteindre le nombre de génération (N=100)
Chromosome des poids synaptiques
Apprentissage structurel il suit le même principe que pour l‟apprentissage paramétrique, sauf que nous avons :
1) remplacer le poids par une connexion binaire : 1 s‟il y a une connexion entre un neurone et un autre sinon 0.
b) dans ce cas nous avons gardé la structure (9-4-1) avec 40 connexions, (Figure IV.24)
Résultats
Pour effectuer la répartition des 683 patientes : nous avons gardé 2/3(456) pour la phase d‟apprentissage et 1/3 (227) pour la phase de test
Résultats obtenus par le classifieur neuronal
Tableau IV.3 : Résultat du classifieur neuro-génétique structurel(CNGS)
Interprétation des résultats
Les classifieurs neuro-géntiques ont donné des meilleures performances particulièrement dans la reconnaissance des cas malins (voir tableaux)
Cette performance est du essentiellement à l‟optimisation de la structure et à la modification des poids en plus pour l‟apprentissage structurel (2 entrées X3 et X8) ont été éliminé, ces deux derniers représentent respectivement :Uniformity of cell shape et Noarmal Nucleioli Du point de vu médical, ils sont les moins significatifs (confirmé par les experts du domaine)
Approche multi agents
Nous avons adopté l‟approche distribuée (SMA) pour profiter des contributions des trois modèles (CNC, CNGP, CNGS) représentant chacun un agent auquel nous avons intégré un quatrième agent que nous avons dénommé « AgentContrôleur ». Au préalable, ces différents agents ont été dénommés comme suit :
1-Agent Classiffieur pour les réseaux de neurones CNC
2-AgentClassiffeur1 pour les neuro-génétique paramétrique CNGP
3-AgentClassifieur2 pour les neuro-génétique structurel CNGS
L‟AgentContrôleur récupère les résultats des trois agents ensuite il calcule ses propres performances afin d‟établir le diagnostic final les résultats obtenus sont présentés dans le tableau suivant :
Conclusion et interprétation
Nous remarquons que l’Agent Contrôleur a bénéficié des meilleurs résultats obtenus par les trois agents (vote majoritaire) pour calculer ses propres performances qui ont augmenté visiblement ses résultats.