fbpx

Tiempo de lectura aprox: 51 segundos

13.ene.2026
La integración no supervisada de Grandes Modelos de Lenguaje (LLMs) en infraestructuras críticas del Estado está generando vulnerabilidades sistémicas. Un caso reciente en Ceuta ilustra perfectamente los peligros de confiar ciegamente en el output de la Inteligencia Artificial. Un abogado ha denunciado ante el Consejo General del Poder Judicial (CGPJ) a un juez de instrucción por basar una resolución en jurisprudencia del Tribunal Supremo completamente inventada.
El análisis forense del caso revela una cadena de fallos de validación catastrófica. El error de origen se produjo en la Fiscalía, que emitió un informe citando una doctrina inexistente, generada presumiblemente por una IA, incluyendo fechas y números de resolución ficticios. El fallo crítico de seguridad se materializó cuando el juez, actuando sin ningún protocolo de control de calidad o verificación (fact-checking), asimiló e inyectó esa «alucinación algorítmica» en los fundamentos de su decisión judicial, inadmitiendo un recurso y vulnerando los derechos constitucionales del afectado.
Este no es un error humano aislado, sino un fallo estructural en el procesamiento de la información judicial. Ya habíamos visto precedentes de abogados intentando colar citas falsas generadas por IA en Canarias, pero que el fallo provenga de la judicatura demuestra una ignorancia técnica preocupante sobre cómo operan estas redes neuronales probabilísticas. Los modelos generativos están diseñados para predecir secuencias de texto plausibles, no para actuar como bases de datos de verdad factual. Delegar el razonamiento legal a un sistema estocástico sin aplicar un «Human-in-the-Loop» estricto degrada la integridad de todo nuestro ecosistema judicial.

Deja una respuesta

*

Uso de cookies

Desde mi nube utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies