Partage de bande passante étendu : nouveaux protocoles TCP

Partage de bande passante étendu : nouveaux protocoles TCP

Dans ce chapitre, nous revisitons la relation fondamentale qu’il existe entre les ressources du lien, la demande en trafic et la performance obtenue. Nous considérons l’introduction de nouveaux protocoles TCP plus efficaces, conjointement à l’utilisation d’un ordonnancement fair queueing (PFQ, muni de la politique LQD). PFQ/LQD permet un partage équitable de la capacité du lien (C) et du buffer (B), l’introduction de nouveaux mécanismes TCP plus efficaces (et moins dépendant des ressources disponibles), ainsi que la différenciation implicite des flots streaming et élastiques. La combinaison PFQ/LQD et MBAC permet de garantir leur performance. Les modèles de trafic tels que ceux présentés dans le Chapitre 3 se basent sur une version fluide, idéalisée du trafic, où les mécanismes au niveau paquet n’interviennent pas. En pratique, TCP ne réa- lise pas un partage équitable, instantané, et efficace des ressources. Comme il a été évoqué plus tôt, les versions classiques de TCP – Reno/NewReno – sont reconnues comme insuffisantes pour exploiter convenablement la bande passante disponible sur des liens à fort “Bandwidth-Delay product”, notam- ment au vu de la lenteur de l’algorithme AIMD. Nous avons vu de plus que la présence de petits buffers ne permet pas à l’algorithme une utilisation efficace des ressources. Les interactions au niveau paquet au sein d’un petit buffer, exacerbées par l’envoi en rafales causé par le contrôle de congestion de bout en bout, entraînent des pertes de paquets “naturelles”, non liées à de la congestion, qui obligent TCP à adapter son débit bien en dessous du débit équitable. Dans des conditions réalistes de trafic, il est ainsi difficile de réduire drastiquement la taille des buffers dès lors que l’on souhaite assurer la performance des flots TCP Reno, sur un lien FIFO. Les évolutions que connaissent les réseaux aujourd’hui, avec l’arrivée des réseaux optiques à très haut débit, ou le fort intérêt suscité par les datacenters, sont autant de facteurs motivant l’introduction de nouveaux protocoles ou mécanismes de gestion du trafic plus adaptés. De nombreux travaux montrent aujourd’hui l’intérêt de reconsidérer l’introduction d’ordonnancement (scheduling) ou de politiques de gestion des files d’attente (AQM), afin d’améliorer la performance des flots (FQ-Codel [70], pFabric [5], etc.).

Une alternative radicale aux solutions FIFO ou avec AQM est d’introduire un ordonnancement équitable, ou fair queueing (FQ), entre les flots. FQ permet un découplage entre le contrôle de débit et l’ordonnancement des flots. Nous utilisons l’implémentation PFQ (que nous avons réalisé dans ns-2), avec une politique rejetant les paquets de la file la plus longue (LQD, Longuest Queue Drop). Suter et al. montrent qu’un tel mécanisme est largement plus efficace que RED pour la gestion du trafic. Nous verrons qu’il permet aux flots non-bottlenecked de ne subir aucune perte. Leurs paquets subissent notamment de faibles délais Un autre avantage bien connu du fair queueing est la possibilité d’introduire et d’expérimenter de nouvelles versions de TCP sans nuire aux utilisateurs de la version standard, puisque l’équité dans le réseau est assurée indépendamment du comportement de l’utilisateur. Le fair queueing peut être considéré comme infaisable si le nombre de flots à contrôler est trop important, et s’il croît avec la capacité du lien. En réalité, le nombre de flots à ordonnancer à tout instant est relativement faible, indépendamment de la capacité du lien (voir Chapitre 3, et [95, 93]). L’impact sur la performance ne sera bien entendu perceptible que lorsque le lien sera saturé, ce que nous avons qualifié précédemment de régime élastique. Ainsi dans ce chapitre, nous explorons sous une nouvelle perspective la relation introduite dans le Chapitre 2, entre ressources, demande et performance. Nous réexaminons les arguments relatifs à l’introduction de tels protocoles au vu de notre compréhension du trafic, et en considérant l’utilisation complémentaire d’un mécanisme de fair queueing.

Nous commençons dans la section 5.2.2 par présenter un ensemble d’évolutions proposées pour TCP, pour ensuite motiver l’introduction dans la section 5.3 de fair queueing (FQ), qui assure la per- formance des flots streaming et élastiques, et permet l’introduction de nouveaux protocoles TCP plus efficaces. En considérant désormais un environnement équitable, nous analysons dans la section 5.4 un ensemble représentatif de versions de TCP au vu de notre compréhension du trafic, afin de vérifier dans quelle mesure les résultats établis dans le chapitre précédent sont confirmés (impact de petits buffers en présence de charge background). Finalement, la section 5.5 discute les résultats obtenus et un ensemble de pistes. Malgré une performance supérieure, nous constatons que les versions existantes de TCP peuvent encore être améliorées afin de mieux accepter les pertes aléatoires causées par les petits buffers et mieux exploiter la bande passante disponible. Il est possible d’exploiter les bénéfices apportées par le fair queueing afin de concevoir de nouveaux protocoles, plus agressifs, tout en gardant un taux de perte de paquets limités. Un complément prometteur, bien que de mise en œuvre complexe, semble être l’utilisation de techniques d’espacement des paquets (pacing),

 

Cours gratuitTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *