Sommes-nous à la veille de l'Internet 2.0 ?
Si vous travaillez depuis un certain temps dans les secteurs de l'internet et de la technologie, vous pouvez avoir l'impression qu'il y a souvent plus de battage médiatique que de réalité dans de nombreuses tendances et prétendues innovations basées sur des mots à la mode. L'avènement du web 2.0, au début des années 2000, a eu de la substance et a inauguré une nouvelle ère de sites web et d'applications plus collaboratifs et sociaux. Malgré tout ce qui a été écrit sur le Web 3.0, et malgré le désir sincère d'un nouveau changement de paradigme dans l'interaction en ligne, il est difficile de voir un impact réellement généralisé sur la façon dont les gens construisent et utilisent les technologies du web.
En ce qui concerne l'infrastructure Internet qui sous-tend le web, il y a bien sûr eu des changements et des mises à niveau en cours de route (voir IPv6, TLS1.3, QUIC), mais aucun d'entre eux n'a entraîné d'améliorations visibles pour l'utilisateur final qui auraient créé un "facteur de surprise" pour stimuler l'adoption. En effet, l'absence d'attrait du marché pour ces développements explique en grande partie pourquoi le déploiement reste souvent très inégal. Mais cela pourrait-il être sur le point de changer ?
L'Internet est lent
Si, comme moi, vous êtes en ligne depuis bien avant le tournant du millénaire, vous savez que l'attente faisait partie intégrante de l'utilisation de l'internet. Attendre que les modems se connectent, attendre que les messages électroniques soient envoyés et délivrés, attendre, parfois pendant des jours, que les téléchargements de toutes sortes soient terminés. S'il est vrai qu'il y a une grande différence entre les réseaux toujours actifs qui prennent en charge le streaming vidéo et les réseaux connectés par intermittence qui prennent à peine en charge les interactions textuelles, bon nombre des frustrations de ces premiers jours sont toujours présentes. Malgré la généralisation des connexions internet à large bande à plusieurs mégabits, voire gigabits, les cris "l'internet est lent aujourd'hui" n'ont pas disparu de la liste des maux modernes qui peuvent nous frapper. Mais pourquoi ?
Alors que les fournisseurs d'accès à Internet continuent de vanter la vitesse de leurs réseaux et proposent différents paliers de vitesse qui laissent entendre que plus de vitesse équivaut à un meilleur Internet, on sait depuis longtemps qu'une bande passante supplémentaire offre des rendements décroissants en termes d'amélioration des performances. Le graphique ci-dessous, tiré d'une étude de Mike Belshe qui a conduit au développement de QUIC, illustre clairement ce point. Alors que le temps de chargement des pages web augmente considérablement lorsque la bande passante dépasse 1 Mbps, ces gains deviennent marginaux lorsque la bande passante dépasse 3 Mbps. Ainsi, au-delà d'un certain point, l'augmentation de la bande passante ne va pas contribuer à améliorer l'expérience de l'utilisateur en matière de performances Internet.
Le réseau est l'ordinateur
L'avènement de l'informatique en nuage et la montée en puissance des applications web progressives signifient que le vieux slogan de Sun Microsystems, "le réseau, c'est l'ordinateur", est aujourd'hui plus vrai que jamais. Mais comme nos applications (basées sur le web) dépendent désormais d'interactions client-serveur constantes pour fonctionner sans heurts, le temps que prennent ces interactions (délai du réseau ou latence) est devenu le point de mire des chercheurs qui tentent d'apporter un changement radical dans les performances de l'internet.
"Ma théorie est que lorsqu'une interface est plus rapide, vous vous sentez bien et, en fin de compte, vous avez l'impression de contrôler la situation. Ce n'est pas l'application qui me contrôle, c'est moi qui la contrôle. En fin de compte, ce sentiment de contrôle se traduit par le bonheur de chacun. Pour accroître le bonheur dans le monde, nous devons tous continuer à travailler sur ce sujet.
J'aime beaucoup cette citation de Matt Mullenweg, car elle montre bien pourquoi la mission consistant à réduire les temps de latence des réseaux n'est pas seulement une question d'amélioration progressive, mais peut en fait transformer l'expérience que les gens ont de l'internet et le type d'applications qui peuvent être largement prises en charge. Si l'augmentation de la largeur de bande n'est d'aucune utilité, que pouvons-nous faire pour réduire les temps de latence des réseaux à leur minimum théorique ?
Faible latence, faible perte, débit évolutif (L4S)
Lors d'une récente réunion de l'Internet Engineering Task Force (IETF), les participants au premier test d'interopérabilité d'une nouvelle technologie expérimentale appelée L4S ont obtenu des résultats vraiment impressionnants. Pour plus de détails, consultez la présentation de Greg White au groupe de travail "Transport Area". En bref, ils ont montré que la technologie L4S peut offrir une variation de délai inférieure à 10 millisecondes (ms) pour 99,9 % du trafic, contre une variation de délai de plus de 100 ms pour le trafic non traité. L'objectif de L4S est de réduire les retards dus aux files d'attente dans le réseau à"moins de 1 ms en moyenne et moins d'environ 2 ms au 99e percentile". Le travail effectué lors du hackathon d'interopérabilité de l'IETF et les résultats présentés suggèrent que les chercheurs et les développeurs travaillant sur cette technologie sont très près d'atteindre ces objectifs.
Réduire de 90 à 100 ms les délais de transmission des paquets (dans le pire des cas) peut sembler dérisoire, mais il faut se rappeler que la plupart des sites web et des applications Internet courantes fonctionnent aujourd'hui de la même manière. Les nombreux allers-retours entre le client et le serveur signifient que le risque qu'un pic occasionnel dans les délais de mise en file d'attente vienne gâcher votre expérience est assez élevé. Réduire la variation des délais pour l'ensemble du trafic à un niveau proche du minimum théorique constituerait un énorme progrès en termes de performances. Nous passerions d'une expérience frustrante de "l'Internet est lent" pour tout le monde (quelle que soit la "vitesse") à une expérience rare, voire inexistante. Si vous y parvenez, je pense que nous pourrons vraiment commencer à parler de l'internet 2.0.
Y a-t-il un piège ? Il y a un piège.
Ça a l'air génial, non ? Bien sûr, il y a un hic. Il y a toujours un problème. Il y a généralement au moins trois participants dans toute communication médiatisée par l'internet : l'expéditeur, le destinataire et le réseau qui se trouve entre les deux. Le système L4S nécessite des changements au niveau de ces trois acteurs pour offrir tous ses avantages. Il n'est pas facile d'amener autant d'acteurs aux intérêts et aux motivations disparates à agir, voire à se coordonner. En fait, c'est exactement le type de problème d'incitation souvent cité pour expliquer pourquoi d'autres nouvelles technologies potentiellement bénéfiques n'ont pas été largement adoptées sur l'internet.
Dans le cas du L4S, il y a cependant une raison d'être optimiste, et cette raison est le "facteur de surprise" que j'ai mentionné plus haut. Les personnes qui travaillent au développement et à la démonstration du L4S espèrent qu'il sera réellement possible de développer et de démontrer des offres de produits convaincantes en fonction des niveaux de performance basés sur le L4S, ce qui contribuera à l'adoption dans l'ensemble de l'industrie. Le nombre d'entreprises participant au hackathon d'interopérabilité de l'IETF suggère certainement que l'intérêt des fabricants d'appareils, des opérateurs de réseaux et des fournisseurs de services d'application Internet s'est déjà manifesté.
Nous pourrions être à l'aube d'un véritable changement dans la réactivité des applications Internet vers un nouveau paradigme où un délai constamment faible pour tout le trafic donne aux utilisateurs finaux des niveaux sans précédent de confiance et de satisfaction (le "bonheur" de Matt Mullenweg) à chaque fois qu'ils utilisent le réseau. Nous avons l'intention de continuer à suivre et à rapporter les développements L4S, alors suivez @isoc_pulse pour être sûr d'entendre comment l'histoire se déroule sans délai.
Plus d'informations sur L4S
- Document sur l'architecture L4S (en cours d'élaboration)
- Présentation de l'IETF L4S Interop
- Présentation d'Apple à la WWDC sur le thème"Réduire les délais de mise en réseau pour une application plus réactive".
- Ericsson et Deutsche Telekom font la démonstration du L4S dans la 5G
- NVIDIA explique l'impact potentiel sur les jeux en ligne
Photo de Mathew Schwartz sur Unsplash
