Sélection de services webbasée sur les contraintes de QdS
Pourquoi OMRI?
Avant de présenter notre normalisation, appelée OMRI, nous soulignons d’abord, à travers des exemples, les inconvénients de l’utilisation de la normalisation RIM. Dans la normalisation RIM , si alors les services qui sont dans l’intervalle ont plus de chances d’être sélectionnés que les services qui prennent leurs valeurs dans l’intervalle et vice versa. Pour souligner ce fait, considérons l’exemple suivant.
Exemple 1 : Considérons un ensemble de services web caractérisé par le critère ”prix” qui prend ses valeurs dans l’intervalle . Supposons que le client définit des contraintes telles que le critère prix doit être à l’intérieur de l’intervalle . Considérons deux services web et tel que et . Par conséquent, comme et ne satisfont pas les contraintes sur le critère ”prix”, le but est de déter miner quel service web est le plus proche répondant à ces contraintes.
Lorsque nous utilisons l’approche RIM, la normalisation des valeurs des services web se déroule sur deux intervalles différents indiquant les plages de valeurs situées en dehors de l’inter valle idéal des valeurs requises,à savoir: . Par conséquent, dans notre exemple,l es deux intervalles sont : et .
Nous avons La normalisation RIM donne les résultats suivants : qui est supérieur à et . . Cependant, logiquement, ces deux services auraient dû bénéficier du même score, car ils sont à une distance égale des contraintes, .
Exemple 2 : Considérons le même exemple précédent avec des contraintes diffé rentes, en supposant que celles-ci soient dans l’intervalle . Supposons les deux services web et nous obtenons : et , tels que et . Nous avons . Après application de la normalisation RIM, < . Nous arrivons à la même conclusion que l’exemple précédent.
Logiquement, et devraient obtenir le même score car les deux services sont équidistants aux contraintes client : . Les exemples précédents soulignent le fait que la normalisation RIM ne garantit pas un classement correct lorsqu’il s’agit de contraintes. Par conséquent, nous introduisons ci-après la normalisation OMRI pour éliminer l’incohérence observée dans RIM
Utiliser Borda pour comparer les différents classements Pour évaluer la pertinence et la précision des quatre approches de classement AMCD testées, on considère la même solution définie dans [94] qui utilise la tech nique [83] pour calculer la solution de compromis. Soit , , et les classements des services web obtenus en appliquant respectivement VIKOR*, WPM*, TOPSIS*, et SAW*. donne le classement du service web obtenu en utilisant la méthode .
La méthode est une mé thode basée sur le vote. Elle suppose qu’il y a méthodes (votants) qui votent sur les services . Chaque service web reçoit des votes à différentes positions dans le clas sement. Ensuite, le score Borda du service web est obtenu en agrégeant les différents classements , comme suit : [94] :
• Étape 1: Calculer le score de Borda en ajoutant le classement de service corres pondant à chaque méthode. • Étape2:Classer les services dans un ordre croissant en fonction du score . En cas d’égalité dans le score, nous considérons le nombre de fois où les services webobtiennentunemeilleurenote.Leclassementobtenu est unesolution de compromis entre les 4 méthodes de classement.