Tiempo de lectura aprox: 50 segundos
20.mar.2025![]()
El desmantelamiento de VeriPol por parte de la Policía Nacional es un caso de estudio obligatorio sobre cómo no implementar Inteligencia Artificial en el sector público. Tras seis años de operación, este sistema diseñado para detectar denuncias falsas ha sido retirado, no por falta de eficacia técnica teórica, sino por fallos estructurales en su diseño y entrenamiento. El pecado original de VeriPol fue entrenarse con un dataset minúsculo y sesgado: apenas 1.122 denuncias de 2015, basándose no en la declaración directa del ciudadano, sino en la transcripción realizada por el agente policial.
Técnicamente, esto introdujo un sesgo de confirmación en el modelo: la IA no analizaba la veracidad del hecho, sino el estilo de redacción del policía que tomaba la denuncia. Si el agente sospechaba, escribía de una forma que la IA aprendió a etiquetar como «falsa». Esto es un bucle de retroalimentación negativa que invalida cualquier pretensión de objetividad estadística. Además, la opacidad del algoritmo («caja negra») lo hacía incompatible con las garantías procesales necesarias en un estado de derecho.
La puntilla ha sido el nuevo Reglamento Europeo de IA, que clasifica acertadamente estos sistemas de perfilado delictivo como de «alto riesgo». La lección para los ingenieros de sistemas gubernamentales es clara: la precisión matemática (ese supuesto 90% de acierto) es irrelevante si los datos de entrenamiento están contaminados y si el sistema carece de explicabilidad (explainability). La justicia algorítmica no puede basarse en patrones lingüísticos obsoletos de hace una década.