Codage réseau fiable
Dans cette partie, nous tenons à montrer d’abord l’impact prospectif du codage réseau sur différents types de réseaux de capteurs. Il s’agit d’identifier comment les codes linéaires et opportunistes améliorent des critères de performances clés à ces réseaux tels que le débit, le délai et le temps de convergence. Nous proposons trois protocoles d’acheminement basés, l’un (WSC) sur le codage aléatoire linéaire et les autres (CoZi et CNC) sur un codage réseau opportuniste. Contrairement aux mécanismes de codage actuels, les deux derniers codes que nous présentons sont conçus pour exploiter des propriétés spécifiques aux réseaux de capteurs telles que la topologie, la nature du trafic et l’application du réseau. Nous verrons que bien que le codage réseau linéaire assure des performances supérieures à celle du codage opportuniste dans le cas de la dissémination de données, il n’en reste pas moins un mécanisme couteux, qui ne peut être appliqué que pour une certaine catégorie de réseaux inter-machines avec des capacités supérieures à la normale. Dans le cas de réseaux plus contraints, nous proposons d’utiliser un codage opportuniste qui se base sur la topologie hiérarchique des réseaux de capteurs et qui permet d’améliorer significativement le débit et le délai en comparaison à un modèle d’acheminement classique.
Alors que l’étude entreprise en première partie permet de définir différentes stratégies de codage selon le type de réseau inter-machines et ses applications, les performances constatées résultent d’une évaluation dans un environnement idéal dépourvu de pertes. Dans un second travail, nous proposons d’étudier l’impact des pertes de paquets sur l’efficacité des mécanismes de codage réseau. Nous démontrons que les critères de fiabilité usuellement utilisés pour les algorithmes basés sur le store-and-forward ne sont pas suffisants pour évaluer des protocoles de codage réseau. En effet, la fiabilisation de flux codés ne répond pas uniquement aux métriques de robustesse telles que le délai et le taux d’acheminement des paquets. Nous complétons donc ces métriques en introduisant la notion de codage fiable : un code est dit fiable s’il permet de coder des paquets de manière suffisamment efficace pour que le maximum de ses destinataires puissent en extraire de l’information utile, quelque soient les conditions du réseau (erreurs, collisions, pannes, etc.). A partir de cette définition, nous proposons un schéma de retransmissions opportunistes appelé ReCoZi qui permet l’acquittement non pas de paquets reçus, mais de paquets effectivement décodés et dont de l’information utile a pu être extraite. Nous évaluons cette méthode de fiabilisation de flux codés par simulation et montrons que grâce aux nouvelles métriques de codage fiable, il est facile d’évaluer et concevoir des mécanismes de codage robustes qui garantissent une amélioration des performances même lorsque le réseau subit des taux de pertes élevés.
Codage réseau contraint
De récents travaux théoriques ont montré la possibilité d’atteindre le débit théorique maximal en utilisant des mécanismes de codage dans les réseaux dits en incast. Dans ces réseaux, les communications se font à partir de plusieurs sources vers une seule destination. Il s’agit ici du schéma de trafic le plus commun dans les réseaux de capteurs. Cependant, la conception d’un tel mécanisme de codage n’a jamais pu être constatée dans la littérature. On peut penser intuitivement qu’une adaptation directe des mécanismes de codage existants pourrait résoudre le problème, si ce n’est que la plupart des propositions existantes sont basés sur l’écoute passive de paquets. Ce qui implique qu’elles ne sont pas applicables aux réseaux contraints pour des raisons de conservation d’énergie et de mémoire. De plus il est courant de constater que les algorithmes de codage existants requièrent une surcharge réseau, certes, négligeable dans le cas de réseaux sans fil à haut débit, mais qui s’avère fortement contraignante dans les réseaux de capteurs avec une capacité intrinsèque très réduite.