- Medir la latencia de las aplicaciones en lugar de la velocidad de Internet ofrece una mejor comprensión de la experiencia actual del usuario de Internet.
- Los proveedores de servicios de Internet pueden aprovechar la inteligencia artificial en los equipos de las instalaciones del cliente para observar y proporcionar información personalizada y específica de la aplicación sobre cómo mejorar el rendimiento.
Este provocador título pretende forzar un replanteamiento de los atributos de red que más afectan a la calidad de las aplicaciones de Internet para los usuarios finales.
En gran parte del mundo, estamos en una era que me gusta llamar la “era post-gigabit“. Muchos usuarios tienen acceso a conexiones gigabit -o al menos a cientos de Mbps- y han pasado de una era de escasez de ancho de banda a otra de abundancia. En esta era, el ancho de banda ya no limita la calidad de la aplicación del usuario final.
Como resultado de este cambio hacia la baja latencia, el ecosistema de medición está empezando a ir más allá de las pruebas de velocidad y se centra más en la experiencia del usuario. Exploremos.
Alejarse de las pruebas de velocidad
Las pruebas de velocidad de Internet han definido la evaluación del rendimiento de Internet durante los últimos 30 años.
A pesar del aumento del ancho de banda, la gente experimenta cada vez más una mala calidad de las aplicaciones. Esto se debe a otros factores, como el WiFi y la latencia de trabajo (también conocida como capacidad de respuesta de la red).
En el caso del WiFi, los problemas incluyen:
- Utilizar una banda de 2,4 GHz en lugar de 5 GHz
- Estar demasiado lejos del punto de acceso
- Tener sólo una radio en el punto de acceso
- Utilizar backhaul de malla inalámbrica de extensores en lugar de Ethernet
- Tener interferencias de redes cercanas.
Los problemas son variados, pero en muchos casos, las redes WiFi administradas por los usuarios suponen una importante limitación del rendimiento.
En cuanto a la medición de los efectos de la latencia, en lugar de fijarte en la latencia PING -que se produce en condiciones de “inactividad”-, tienes que generar tráfico cruzado mientras realizas una prueba de latencia. Esto simula mejor las condiciones del mundo real, donde muchos usuarios y dispositivos utilizan simultáneamente la red.
Al hacerlo, no es raro ver conexiones con una latencia en reposo de 25 ms que se disparan a cientos de milisegundos por viaje de ida y vuelta (con necesidad de varios viajes de ida y vuelta). Algunos usuarios experimentan incluso uno o dos segundos de retardo, que es muy variable en el tiempo.
Una visión diferente: “Calidad de los resultados” (QoO)
Está surgiendo un enfoque alternativo, que se aleja de las mediciones artificiales que son sustitutos indirectos de la calidad de Internet y se acerca a las mediciones directamente representativas o predictivas.
Estos enfoques pueden aprovechar un agente de inteligencia artificial que se ejecute en los equipos de las instalaciones del cliente (CPE) de una red doméstica para observar:
- el rendimiento de la red de acceso y de Internet más allá de
- la red local por cable y WiFi del usuario, incluso hasta un nivel por dispositivo y por aplicación.
Lo que este marco sugiere es un futuro en el que tu red pueda proporcionar información específica sobre dispositivos y aplicaciones, como por ejemplo
- “La semana pasada tuviste una calidad excelente de FaceTime en todos los dispositivos, en 54 sesiones de llamadas”.
- “El iPhone de Jane ha experimentado hoy una calidad deficiente en YouTube debido a la baja intensidad de la señal. Para mejorar la calidad, instala un nuevo extensor de red WiFi de 5 GHz en el salón. Esto beneficiará a cuatro dispositivos de la red”.
- “La Smart TV del salón experimentaba frecuentes almacenamientos en búfer de las aplicaciones Netflix, Peacock y Max porque tenía baja intensidad de señal WiFi en los canales de 2,4 GHz. Deberías conectar ese dispositivo a la red con un cable Ethernet o instalar un nuevo extensor de red WiFi de 5 GHz en el salón.”
- “El mes pasado se produjeron varias descargas de Fortnite y Call of Duty, que estuvieron limitadas por tu ancho de banda disponible; quizá quieras plantearte añadir ancho de banda”.
Optimiza la capacidad de respuesta de la red y pruébala adecuadamente
Los proveedores de servicios de Internet pueden ahora tomar medidas para optimizar la capacidad de respuesta de la red. Esto puede implicar el despliegue de nuevos algoritmos de Gestión Activa de Colas (AQM) en la red y el CPE y la implantación de L4S y NQB del IETF, lo que se conoce como red de doble cola.
Las plataformas de prueba también deben pasar de centrarse en el ancho de banda a los atributos que afectan a la calidad de la aplicación, en particular la latencia y la fluctuación.
En última instancia, el mejor objetivo es hacer un seguimiento directo de la Calidad de Experiencia de la aplicación del usuario final y de la Calidad de Resultado histórica y predictiva.
Jason Livingood dirige Política Tecnológica, Producto y Normas, y es el único punto de coordinación de la división de tecnología y producto (TPX) de Comcast Cable en todos los compromisos clave de política tecnológica, normas, organizaciones del sector e investigación.
Las opiniones expresadas por los autores de este blog son suyas y no reflejan necesariamente los puntos de vista de la Internet Society.


