La théorie du codage réseau

Codage réseau fiable

De nos jours, la théorie du codage réseau est de plus en plus présente dans des domaines très variés de l’informatique contemporaine. Bien que la vision que porte la communauté sur les réseaux de communication ait changé grâce à cette théorie, ses implications sur la façon dont nous étudions les architectures en code-and-forward est toujours sous-estimée. Plus précisément, nous constatons que même si beaucoup de chercheurs dans les réseaux informatiques sont maintenant familiers avec les avantages des codes opportunistes tels que COPE [47], leurs approches pour valider leurs travaux dans ce domaine restent très proche des méthodologies propres aux réseaux store-and-forward. Cela est dû à l’absence dans la littérature d’un cadre théorique dédié qui permette l’évaluation et la validation des systèmes de codage réseau.  De fait, il est indéniable que dans un environnement idéal le codage réseau opportuniste permet d’améliorer l’utilisation de la bande passante et de réduire la latence des réseaux maillés et hiérarchiques. Pourtant, il subit les mêmes défaillances que d’autres systèmes de codage basés sur des méthodes d’acquittement et de retransmissions venues du monde du store-and-forward. Ces défaillances existent parce que les codes proposés dans la littérature, qu’ils soient linéaires ou opportunistes, ne sont conçus que pour garantir une fiabilité dite « classique » des communications au lieu d’adopter des méthodes spécialement conçues pour le codage réseau.

Aussi, avant d’entamer une quelconque étude de fiabilité du codage inter-machines, nous devons dans un premier temps savoir si les méthodes d’appréciation de la fiabilité utilisées dans le store-and-forward sont suffisantes pour accomplir cette tâche. Concrètement, dans un réseau non-codé, garantir la fiabilité des communications consiste à maximiser le taux d’acheminement à un saut et de bout-en-bout tout en gardant des délais raisonnables et une certaine équité. Cela peut s’évaluer simplement en mesurant les délais et les taux de pertes de paquets de proche-en-proche et de bout-en-bout. Cependant, dans un système codé, l’acheminement réussi d’un paquet ne rime pas forcément avec succès de la communication, car un paquet codé qui arrive à son destinataire n’a de valeur que s’il peut être décodé. Afin de remédier à ces insuffisances nous définissons dans ce chapitre la notion de codage fiable. Nous affirmons que ce concept constitue un élément important dans l’évaluation et la conception de nouveaux mécanismes de codage réseau. Etonnement, il n’a jamais (ou pas explicitement) été pris en compte dans la littérature actuelle, même s’il peut avoir un impact négatif sur l’efficacité des algorithmes de codage conçus pour les réseaux sans fil, où le médium est par nature très peu fiable. L’élément clé du codage fiable est de fournir un premier ensemble d’outils formels qui contribuent à combler le fossé entre l’implémentation du codage réseau et sa fiabilisation, et cela en répondant à des questions cruciales.

LIRE AUSSI :  INTERPRÉTATION, MODÉLISATION ET EN-JEUX PRAXÉOLOGIQUES

Dans un second temps, nous proposons d’illustrer comment un codage non fiable peut réduire les performances des réseaux de capteurs sans fil et comment il est possible d’y remédier. Comme exemple empirique, nous montrons la façon dont les interférences et les collisions peuvent influer sur le comportement de CoZi, le mécanisme de codage opportuniste proposé dans le chapitre précédent. Puis nous présentons ReCoZi une solution simple, et pourtant efficace, qui se base sur un mécanisme d’acquittement par écho [91] et sur l’inférence de topologie locale pour améliorer la robustesse du codage réseau lors de présence de pertes non-négligeables. Enfin, nous montrons que ReCoZi surpasse nettement le routage en store-and-forward ZigBee en termes de taux d’acheminement avec cependant une légère baisse en termes de latence dans certains cas. Ce chapitre est organisé comme suit. Dans la section 4.1 nous abordons le problème du codage fiable dans un réseau de capteurs sans fil. Nous y étudions le comportement des algorithmes de codage opportunistes face aux pertes de paquets et définissons la notion de codage fiable. Nous montrons que ce dernier permet d’offrir des communications plus robustes que ce soit de proche-en-proche ou de bout-en-bout. Nous développons ensuite dans la section 4.2 l’évaluation de ReCoZi un mécanisme de retransmission spécialement conçu pour assurer un codage réseau fiable quelques soient les conditions du médium dans un réseau de capteurs sans fil. Nous y montrons les performances et discutons son apport pour le codage opportuniste inter-machines. Enfin, la section 4.3 conclut le chapitre.

 

Cours gratuitTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *