RFC 9518: Centralization, Decentralization, and Internet Standards (Centralización, descentralización y estándares de Internet ) se ha publicado tras más de dos años de examen, debate y revisión. En él se explica qué es la centralización, cómo puede ser tanto beneficiosa como perjudicial, las estrategias de descentralización que solemos utilizar para controlarla y, por último, qué pueden hacer los organismos de normalización de Internet al respecto.
No es ningún secreto que la centralización de Internet ha preocupado cada vez más a la mayoría de la gente en la última década. El control de una parte (o de un pequeño número de ellas) sobre cualquier parte crítica de Internet es contrario a su naturaleza: como “red de redes”, Internet fomenta las relaciones entre iguales, no permite que el poder se acumule en manos de unos pocos.
Como ya he comentado anteriormente, los organismos de normalización de Internet (como el IETF y el W3C) pueden considerarse una especie de reguladores, ya que limitan el comportamiento de los demás. Así que es natural preguntarse si pueden ayudar a evitar o mitigar la centralización de Internet.
Empecé a redactar un documento que exploraba estas cuestiones cuando era miembro de la Junta de Arquitectura de Internet. Con el tiempo, se convirtió en el draft-nottingham-avoiding-internet-centralization, que hoy se ha convertido en una RFC de Independent Stream.
Una solicitud de comentarios (RFC) es una publicación de una serie de los principales organismos de desarrollo técnico y establecimiento de normas de Internet, entre los que destaca el Grupo de Trabajo de Ingeniería de Internet (IETF). Una RFC es un memorándum redactado por personas o grupos de ingenieros e informáticos en el que se describen métodos, comportamientos, investigaciones o innovaciones aplicables al funcionamiento de Internet y los sistemas conectados a Internet. Se envía para que lo revisen otros colegas o para transmitir nuevos conceptos, información u, ocasionalmente, humor técnico. Ver: Cómo leer una RFC
Pero fue un largo viaje. Empecé este trabajo con optimismo, creyendo que las normas podían marcar la diferencia, en parte porque los organismos de normalización de Internet son (entre otras muchas cosas) comunidades de personas profundamente comprometidas con el éxito de Internet, con un conjunto de valores compartidos centrados en el usuario final.
Ese optimismo se vio rápidamente atenuado. Después de indagar en los mecanismos de que disponemos, el funcionamiento de los mercados y los incentivos para los distintos agentes, se hizo evidente que no era realista esperar que los documentos normativos -que, por supuesto, no tienen ningún poder o autoridad intrínseca si nadie los aplica- no estén a la altura de la tarea de controlar la centralización.
Además, la centralización es intrínsecamente difícil de erradicar: aunque se pueden reducir o eliminar algunas formas de ella, tiene la costumbre de aparecer en otros lugares.
Más información sobre la centralización en Internet
Eso no significa que los organismos de normalización deban ignorar la centralización, ni que no puedan hacer nada para mejorar el estado del mundo con respecto a ella (el RFC explora varias); más bien, no debemos esperar que las normas sean suficientes para hacerlo.
Una nota final: estaría mucho menos satisfecho con el resultado si no hubiera contado con las excelentes críticas que Eliot Lear (el Editor Independiente de Presentaciones) obtuvo de Geoff Huston y Milton Mueller. Muchas gracias a ellos y a todos los que han contribuido.
Adaptación del post original que apareció por primera vez en el Blog de Mark.
Mark Nottingham ha contribuido a definir y desarrollar la Web e Internet desde finales de los años 90.
Las opiniones expresadas por los autores de este blog son suyas y no reflejan necesariamente los puntos de vista de la Internet Society.