Photo of a king and joker card

El ancho de banda ha muerto. Viva la logística de datos

Picture of Micah Beck
Guest Author | University of Tennessee
Categorias:
Twitter logo
LinkedIn logo
Facebook logo
October 16, 2025
En resumen
  • Muchas aplicaciones mejoran la calidad del servicio combinando el almacenamiento y el cálculo con la transmisión de datos, técnicas que a menudo se denominan “ocultación de latencia”.
  • Este enfoque, que admite servicios como las Redes de Entrega de Contenidos (CDN), suele ser más práctico que el objetivo técnicamente difícil de minimizar el retardo de transmisión de extremo a extremo de cada paquete de datos.
  • Las métricas de calidad de salida ignoran las técnicas que combinan el almacenamiento y el cálculo con la transmisión de datos para mejorar la calidad de muchas aplicaciones con limitaciones de red.

En una entrada reciente del blog Pulse titulada “El ancho de banda ha muerto. Larga vida a la latencia ,” Jason Livingood, vicepresidente de Política Tecnológica, Producto y Estándares de Comcast, sostiene que estamos en una “era post-gigabit”. Su postura es que la evolución de las métricas de red debe centrarse en minimizar la latencia de transmisión de extremo a extremo.

Livingood aboga por centrarse en la Calidad de los Resultados (QoO): “A diferencia de los métodos tradicionales que hacen hincapié en la velocidad o el ancho de banda, la QoO se centra en lo que realmente importa a los usuarios: su experiencia real con aplicaciones como videoconferencias, juegos y streaming”.

El enfoque propuesto por Livingood para la QoO se centra totalmente en las telecomunicaciones (transmisión síncrona de datos de extremo a extremo), abarcando tanto las redes de área amplia como las de área local. En lugar de centrarse en métricas “artificiales” como el ancho de banda teórico de la red y la latencia de extremo a extremo no congestionada, escribió: “Está surgiendo un enfoque alternativo, que se aleja de las mediciones artificiales que son sustitutos indirectos de la calidad de Internet para pasar a mediciones directamente representativas o predictivas.

“Estos enfoques pueden aprovechar un agente de inteligencia artificial que se ejecute en los equipos de las instalaciones del cliente(CPE) de una red doméstica para observar:

  • el rendimiento de la red de acceso y de Internet más allá de
  • la red local por cable y Wi-Fi del usuario, incluso hasta un nivel por dispositivo y por aplicación”.

Livingood ofrece cuatro ejemplos de “experiencia del usuario final”:

  • Calidad FaceTime
  • Calidad de YouTube
  • Buffering en la transmisión de Smart TV
  • Descargas de software de ancho de banda limitado

y propone como solución una red de doble cola:

“Los proveedores de servicios de Internet pueden ahora tomar medidas para optimizar la capacidad de respuesta de la red. Esto puede implicar el despliegue de nuevos algoritmos de gestión activa de colas en la red y en el CPE y la implantación de L4S y NQB del IETF, lo que se conoce como red de doble cola”.

Este análisis ignora las técnicas que combinan el almacenamiento y el cálculo con la transmisión de datos para mejorar la calidad de muchas aplicaciones con limitaciones de red. Muchas de estas técnicas de ocultación de lat encia evitan el problema técnicamente difícil de minimizar el retardo de transmisión de extremo a extremo. La ocultación de la latencia es el principio que motivó originalmente el campo emergente de la logística de datos.

La logística de datos surgió con el despliegue de los “sitios espejo” FTP en la década de 1980. Éstos utilizan la replicación de contenidos para optimizar la distribución de los datos que se publican en la red. En los años 90, esto dio lugar al movimiento de almacenamiento en caché de la Web, que con el tiempo evolucionó hasta convertirse en la moderna industria de redes de entrega de contenidos, predecesora de la nube.

La arquitectura de almacenamiento y reenvío del Protocolo de Internet (IP) fue en sí misma un primer paso en el uso de la asincronía para optimizar la transmisión de datos de extremo a extremo. Las ventajas de la asincronía en el servicio de entrega global de datagramas se concilian después con las necesidades de las aplicaciones de telecomunicaciones síncronas mediante el uso de temporizadores en el Protocolo de Control de Transmisión (TCP) en la capa de transporte. El resultado es un servicio que ofrece una conectividad síncrona imperfecta.

El almacenamiento en búfer disponible en los nodos intermedios IP(routers) relaja los estrictos requisitos de temporización que antes imponía la telefonía digital. Desde el principio de la evolución de Internet, se comprendió que el soporte de los medios de comunicación de masas mediante almacenamiento y retransmisión también requiere alguna forma de comunicación eficaz punto a multipunto. La multidifusión IP fue un intento de ese mecanismo. Pero todos los primeros esfuerzos para apoyar la logística de datos se encontraron con el rechazo de la comunidad de redes tradicionales basadas en las telecomunicaciones de extremo a extremo, o con una falta de adopción generalizada.

En los años 90, el Networking Activo fue un esfuerzo concertado de investigación financiado por la Agencia de Proyectos de Investigación Avanzada de Defensa. Las Redes Activas pretendían aumentar la aplicación del almacenamiento y el procesamiento a la generalización de las redes más allá de la simple transmisión de datos de extremo a extremo. Un intento bien financiado de utilizar la ocultación de la latencia en una red pública fue la creación de redes centradas en la información. Otro enfoque de la convergencia del almacenamiento y la conexión en red a principios de siglo fue la conexión en red logística, que pretendía combinar el almacenamiento, la conexión en red y la computación en un modelo convergente de infraestructura de área extensa.

La idea de que la minimización de la latencia de extremo a extremo requiere técnicas de ocultación de la latencia está ampliamente aceptada. El artículo de 2004 “Latency lags Bandwidth”, de David Patterson, galardonado con el Premio Turing, analizaba el uso de la replicación de datos (almacenamiento) y la síntesis (procesamiento). El artículo seminal de 1982 “End-to-End Arguments in System Design” (Argumentos de extremo a extremo en el diseño de sistemas), de Jerry Saltzer, David Reed y David Clark, se ha utilizado durante décadas para argumentar que introducir en la red cualquier funcionalidad que vaya más allá del reenvío de paquetes es contraproducente y una amenaza para la escalabilidad del despliegue y funcionamiento de la red. Esto parece establecer una paradoja: ocultar la latencia en la red es a la vez necesario y prohibido.

La resolución de la paradoja es fácil de encontrar: los argumentos de extremo a extremo no son un argumento lógicamente válido, sino más bien una regla empírica. Los autores han hecho excepciones por motivos que van desde la seguridad y el rendimiento en el documento original hasta un “recorte” posterior para las redes activas. No obstante, los defensores de los argumentos de extremo a extremo lo atribuyen como una razón clave de la estabilidad continuada y el crecimiento explosivo de la conectividad a Internet. Hacen la vista gorda ante los casos en que no se aplica, en un caso épico de sesgo de confirmación.

Un análisis formal más reciente de la “escalabilidad de despliegue” de los sistemas en capas ofrece una alternativa a los argumentos de extremo a extremo que explica su poder en muchos casos en los que sí se aplica, pero que difiere en otros casos. El principio de “Suficiencia Mínima” explica que las normas comunitarias, que son lógicamente débiles, tenderán a tener más escalabilidad de despliegue, pero permite reforzar mínimamente las normas cuando sea necesario para lograr objetivos específicos. Añadir almacenamiento y procesamiento a la funcionalidad de la red es un ejemplo de “fortalecimiento lógico”. La Suficiencia Mínima explica que el fortalecimiento lógico debe adoptar la forma más débil que siga cumpliendo los objetivos necesarios. Esto contrasta con los argumentos de extremo a extremo, que se interpretan ampliamente como que prohíben cualquier aumento de la funcionalidad de la red. Esto se ha convertido en un punto de ortodoxia entre los defensores del extremo a extremo.

En este nuevo análisis, un problema importante de los esfuerzos anteriores por aumentar la funcionalidad de la red pública es que tendían a ser demasiado fuertes desde el punto de vista lógico. Los investigadores que optaron por no verse limitados por los argumentos de extremo a extremo no se restringieron como sugiere la Suficiencia Mínima. Este planteamiento de “todo o nada” no tiene en cuenta el compromiso fundamental entre fortaleza lógica y escalabilidad de despliegue expresado en el teorema del reloj de arena. Hace tiempo que debemos considerar las estrategias de réplica y síntesis de Patterson de una forma guiada por la Suficiencia Mínima. Es hora de que la era de las telecomunicaciones (transmisión de extremo a extremo) deje paso al área de la logística de datos (almacenamiento, transmisión y cálculo convergentes).

En ausencia de la infraestructura pública compartida que soporta la logística de datos, se han buscado enfoques alternativos. La infraestructura privada de redes de distribución de contenidos, en forma de redes troncales y centros de datos distribuidos, no está limitada por el coste y la dificultad de ingeniería. Sólo sirven a clientes de pago en los componentes más desarrollados de la Internet global. Al mismo tiempo, los operadores de telecomunicaciones intentan segmentar la Internet pública en “carriles”, segregando el tráfico (como el L4S) que requiere la menor latencia posible (por ejemplo, las teleconferencias) del tráfico menos sensible al retardo (como la transferencia de archivos).

Hay una larga historia de intentos fallidos de introducir garantías de calidad de servicio (QoS) en la Internet pública. Estos esfuerzos se han centrado en garantizar un ancho de banda mínimo durante toda la vida útil de una conexión de capa de transporte. Un problema importante de estos enfoques es que la reserva de ancho de banda dentro de un total de mejor esfuerzo es una garantía fuerte, que reduce la escalabilidad de despliegue de la red. Los partidarios de crear un “carril de baja latencia”, como el L4S, parecen pensar que esto no es una forma de garantía de calidad de servicio.

Fundamentalmente, la Calidad de Resultado tiene tan poco que ver con la latencia de transmisión de extremo a extremo como con el ancho de banda de extremo a extremo, porque a los usuarios finales (y a los puntos finales) no les importa de dónde procede la respuesta. Lo que sí les importa son los bajos tiempos de respuesta de interacción, de los que la latencia de transmisión es sólo un componente, y la disponibilidad de servicios ricos que satisfagan sus necesidades a bajo coste con integridad. No les importa si se comunican con servidores en la nube a través de una conexión de red de latencia ultrabaja o si se comunican con un proxy en su red final o integrado en la red central. En otras palabras, este último enfoque utiliza la ocultación de la latencia mediante técnicas de logística de datos. Sin embargo, para un ejecutivo de uno de los mayores proveedores de servicios de Internet, conectar a los usuarios finales a la nube con baja latencia es la solución natural, y quizá la única.

Micah D. Beck es Profesor Asociado del Departamento de Ingeniería Eléctrica e Informática de la Universidad de Tennessee.

Las opiniones expresadas por los autores de este blog son suyas y no reflejan necesariamente los puntos de vista de la Internet Society.

El post original apareció por primera vez en el blog Communications of the ACM.

Contenido traducido

El contenido en francés y español disponible en Internet Society Pulse puede haber sido generado usando servicios de traducción automática, por lo que podría no reflejar con total precisión el texto original.

La versión oficial es el texto en inglés.