Tiempo de lectura aprox: 1 minutos, 5 segundos
05.feb.2026
El reciente anuncio del Gobierno sobre la intención de prohibir el acceso a las redes sociales a menores de 16 años plantea una serie de fricciones técnicas y jurídicas. Además de la restricción de edad, el paquete legislativo pretende hacer legalmente responsables a los consejeros delegados por las infracciones cometidas en sus plataformas y crear un «delito de manipulación de algoritmos» para rastrear la denominada «huella de odio». Al analizar el despliegue técnico de estas medidas, la viabilidad resulta muy cuestionable. Si el bloqueo se basa en la edad declarada, la falsificación en el formulario de registro es un paso trivial. Si, por el contrario, se exige una verificación documental, nos enfrentamos a posibles vulneraciones del RGPD, a riesgos evidentes de suplantación de identidad y a la exposición innecesaria de datos personales en servidores de terceros.
Además, cualquier restricción a nivel de proveedor de servicios puede ser fácilmente eludida mediante el uso de Redes Privadas Virtuales (VPN), que cifran el túnel de conexión y enmascaran la IP real, permitiendo al menor simular una ubicación fuera de la jurisdicción nacional. En el plano jurídico, la medida choca frontalmente con la normativa europea, como la Digital Services Act (DSA) y el principio de «Puerto Seguro». Imputar responsabilidad penal a un directivo por el contenido generado por usuarios ignora por completo la arquitectura de estas plataformas, donde no existe una revisión manual previa y no se puede probar un conocimiento previo o voluntad de permitir el delito.
Asimismo, definir la intención dolosa en el código de un sistema de recomendación algorítmica es un desafío técnico casi imposible de tipificar de forma clara. En el fondo, observo que este tipo de regulaciones parecen buscar un control del discurso en plataformas que resultan adversas (como la red X y su IA Grok), más que una protección efectiva del menor, aprovechando la excusa del bienestar infantil para intentar auditar modelos matemáticos e interferir en la red.
Además, cualquier restricción a nivel de proveedor de servicios puede ser fácilmente eludida mediante el uso de Redes Privadas Virtuales (VPN), que cifran el túnel de conexión y enmascaran la IP real, permitiendo al menor simular una ubicación fuera de la jurisdicción nacional. En el plano jurídico, la medida choca frontalmente con la normativa europea, como la Digital Services Act (DSA) y el principio de «Puerto Seguro». Imputar responsabilidad penal a un directivo por el contenido generado por usuarios ignora por completo la arquitectura de estas plataformas, donde no existe una revisión manual previa y no se puede probar un conocimiento previo o voluntad de permitir el delito.
Asimismo, definir la intención dolosa en el código de un sistema de recomendación algorítmica es un desafío técnico casi imposible de tipificar de forma clara. En el fondo, observo que este tipo de regulaciones parecen buscar un control del discurso en plataformas que resultan adversas (como la red X y su IA Grok), más que una protección efectiva del menor, aprovechando la excusa del bienestar infantil para intentar auditar modelos matemáticos e interferir en la red.