- De nombreuses applications améliorent la qualité du service en combinant le stockage et le calcul avec la transmission de données, techniques souvent appelées “latency hiding” (dissimulation de la latence).
- Cette approche, qui prend en charge des services tels que les réseaux de diffusion de contenu (CDN), est souvent plus pratique que l’objectif techniquement difficile de minimiser le délai de transmission de bout en bout pour chaque paquet de données.
- Les mesures de la qualité des résultats ignorent les techniques qui combinent le stockage et le calcul avec la transmission de données afin d’améliorer la qualité de nombreuses applications soumises à des contraintes de réseau.
Dans un récent article sur le blog Pulse intitulé “La bande passante est morte. Vive la latence Jason Livingood, vice-président de la politique technologique, des produits et des normes chez Comcast, affirme que nous sommes dans une “ère post-gigabit”. Selon lui, l’évolution des paramètres du réseau devrait se concentrer sur la réduction de la latence de transmission de bout en bout.
M. Livingood préconise de mettre l’accent sur la qualité des résultats (QoO): “Contrairement aux méthodes traditionnelles qui mettent l’accent sur la vitesse ou la largeur de bande, la QoO se concentre sur ce qui compte vraiment pour les utilisateurs, à savoir leur expérience réelle avec des applications telles que la vidéoconférence, les jeux et la diffusion en continu.
L’approche de la qualité de service proposée par Livingood est entièrement axée sur les télécommunications (transmission synchrone de données de bout en bout), couvrant à la fois les réseaux étendus et les réseaux locaux. Plutôt que de se concentrer sur des mesures “artificielles” telles que la largeur de bande théorique du réseau et la latence de bout en bout sans congestion, il écrit : “Une autre approche est en train d’émerger, s’éloignant des mesures artificielles qui sont des substituts indirects de la qualité de l’internet pour passer à des mesures directement représentatives ou prédictives.
“Ces approches peuvent s’appuyer sur un agent d’intelligence artificielle fonctionnant dans l’équipement des locaux du client(CPE) d’un réseau domestique pour observer :
- la performance du réseau d’accès et de l’Internet au-delà de la frontière.
- le réseau local câblé et Wi-Fi de l’utilisateur, y compris au niveau de chaque appareil et de chaque application”.
Livingood propose quatre exemples d'”expérience de l’utilisateur final” :
- Qualité FaceTime
- Qualité YouTube
- Mise en mémoire tampon dans la diffusion Smart TV
- Téléchargements de logiciels limités à la bande passante
et propose comme solution la mise en réseau de deux files d’attente :
“Les fournisseurs de services Internet peuvent désormais prendre des mesures pour optimiser la réactivité du réseau. Cela peut impliquer le déploiement de nouveaux algorithmes de gestion active des files d’attente dans le réseau et le CPE, ainsi que la mise en œuvre des normes L4S et NQB de l’IETF, connues sous le nom de réseau à double file d’attente”.
Cette analyse ne tient pas compte des techniques qui combinent le stockage et le calcul avec la transmission de données pour améliorer la qualité de nombreuses applications soumises à des contraintes de réseau. Beaucoup de ces
La logistique des données est apparue avec le déploiement des “sites miroirs” FTP dans les années 1980. Ceux-ci utilisent la réplication de contenu pour optimiser la distribution des données publiées sur le réseau. Dans les années 1990, cela a donné naissance au mouvement de mise en cache sur le web, qui a finalement évolué vers l’industrie moderne des réseaux de diffusion de contenu, un prédécesseur du “nuage”.
L’architecture “store-and-forward” du protocole Internet (IP) a elle-même constitué une première étape dans l’utilisation de l’asynchronisme pour optimiser la transmission de données de bout en bout. Les avantages de l’asynchronisme dans le service de livraison globale de datagrammes sont ensuite conciliés avec les besoins des applications de télécommunications synchrones grâce à l’utilisation de temporisateurs dans le
La mémoire tampon disponible au niveau des nœuds intermédiaires IP(routeurs) assouplit les exigences strictes en matière de délais qui étaient auparavant imposées par la téléphonie numérique. Dès le début de l’évolution de l’internet, on a compris que la prise en charge des médias de masse à l’aide du stockage et de la retransmission nécessitait également une forme de communication point à multipoint efficace. La multidiffusion IP était une tentative de mécanisme de ce type. Mais tous les premiers efforts pour soutenir la logistique des données se sont heurtés à la réticence de la communauté des réseaux traditionnels basés sur les télécommunications de bout en bout, ou à l’absence d’une adoption généralisée.
Dans les années 1990, l’Active Networking était un effort de recherche concerté financé par la Defense Advanced Research Projects Agency. La mise en réseau active visait à accroître l’application du stockage et du traitement à la généralisation de la mise en réseau au-delà de la simple transmission de données de bout en bout. La
Il est largement admis que la minimisation de la latence de bout en bout nécessite des techniques de dissimulation de la latence. L’article “Latency lags Bandwidth”, publié en 2004 par David Patterson, lauréat du prix Turing, traite de l’utilisation de la réplication des données (stockage) et de la synthèse (traitement). L’article fondateur de 1982
Il est facile de résoudre ce paradoxe : les arguments de bout en bout ne sont pas logiquement valables, mais constituent plutôt une règle empirique. Des exceptions ont été faites par les auteurs pour des raisons allant de la sécurité et de la performance dans le document original à un “découpage” ultérieur pour la mise en réseau active. Néanmoins, les partisans des arguments de bout en bout les considèrent comme l’une des principales raisons de la stabilité continue et de la croissance explosive de la connectivité Internet. Ils ferment les yeux sur les cas où ils ne s’appliquent pas, dans un cas épique de biais de confirmation.
Une analyse formelle plus récente de l'”évolutivité du déploiement” des systèmes en couches offre une alternative aux arguments de bout en bout qui explique sa puissance dans de nombreux cas où elle s’applique, mais qui diffère dans d’autres cas. Le principe de “suffisance minimale” explique que les normes communautaires, qui sont logiquement faibles, auront tendance à avoir une plus grande évolutivité de déploiement, mais il permet le renforcement minimal des normes lorsque cela est nécessaire pour atteindre des objectifs spécifiques. L’ajout de stockage et de traitement à la fonctionnalité du réseau est un exemple de “renforcement logique”. La suffisance minimale explique que le renforcement logique doit prendre la forme la plus faible qui permette encore d’atteindre les objectifs nécessaires. Cela contraste avec les arguments de bout en bout, qui sont largement interprétés comme interdisant toute augmentation de la fonctionnalité du réseau. C’est devenu un point d’orthodoxie parmi les partisans de l’approche de bout en bout.
Dans cette nouvelle analyse, un problème important des efforts précédents visant à accroître la fonctionnalité du réseau public est qu’ils avaient tendance à être trop forts sur le plan logique. Les chercheurs qui ont choisi de ne pas être limités par les arguments de bout en bout ne se sont pas restreints comme le suggère la suffisance minimale. Cette approche “tout ou rien” ne tient pas compte du compromis fondamental entre la force logique et l’évolutivité du déploiement exprimé dans le théorème du sablier. Il est grand temps d’envisager les stratégies de réplication et de synthèse de Patterson d’une manière qui soit guidée par la suffisance minimale. Il est temps que l’ère des télécommunications (transmission de bout en bout) cède la place au domaine de la logistique des données (stockage, transmission et calcul convergents).
En l’absence de l’infrastructure publique partagée qui soutient la logistique des données, d’autres approches ont été poursuivies. L’infrastructure privée des réseaux de diffusion de contenu, sous la forme de réseaux dorsaux et de centres de données distribués, n’est pas limitée par les coûts et les difficultés d’ingénierie. Ils ne desservent que les clients payants des composantes les plus développées de l’internet mondial. Parallèlement, les opérateurs de télécommunications tentent de segmenter l’internet public en “voies”, en séparant le trafic (tel que le L4S) nécessitant la latence la plus faible possible (par exemple, les téléconférences) du trafic moins sensible aux délais (tel que le transfert de fichiers).
Les tentatives d’introduction de garanties de qualité de service (QoS) sur l’internet public ont longtemps échoué. Ces efforts se sont concentrés sur la garantie d’une largeur de bande minimale tout au long de la durée de vie d’une connexion de la couche transport. Ces approches posent un problème important : la réservation d’une largeur de bande dans le cadre d’un total “best-effort” constitue une garantie forte, qui réduit l’évolutivité du réseau en termes de déploiement. Les partisans de la création d’une “voie à faible latence”, comme L4S, semblent penser qu’il ne s’agit pas d’une forme de garantie de qualité de service.
Fondamentalement, la qualité des résultats a aussi peu à voir avec la latence de transmission de bout en bout qu’avec la largeur de bande de bout en bout, car les utilisateurs finaux (et les points finaux) ne se soucient pas de l’origine de la réponse. Ce qui les intéresse, ce sont des temps de réponse réduits, dont la latence de transmission n’est qu’un élément, et la disponibilité de services riches qui répondent à leurs besoins à un faible coût et avec intégrité. Il leur importe peu de savoir s’ils communiquent avec des serveurs en nuage par le biais d’une connexion réseau à très faible latence ou s’ils communiquent avec un proxy dans leur réseau final ou intégré au réseau central. En d’autres termes, cette dernière approche utilise la dissimulation du temps de latence à l’aide des techniques de logistique des données. Cependant, pour un cadre de l’un des plus grands fournisseurs de services Internet, connecter les utilisateurs finaux au nuage à faible latence est la solution naturelle, et peut-être la seule.
Micah D. Beck est professeur associé au département de génie électrique et d’informatique de l’université du Tennessee.
Les opinions exprimées par les auteurs de ce blog sont les leurs et ne reflètent pas nécessairement celles de l’Internet Society.
L’article original est apparu pour la première fois sur le Blog de Communications of the ACM.


