En Reino Unido, un cuerpo policial está probando un sistema de inteligencia artificial llamado Soze, con el potencial de ayudar a la policía a resolver rápidamente casos sin resolver desde hace mucho tiempo. Según Sky News, este programa de IA desarrollado en Australia puede comprimir décadas de trabajo de investigación en pocas horas.

Actualmente no hay datos detallados sobre la precisión del sistema de IA, lo cual es una preocupación importante. Como sabemos, los modelos de IA a veces producen información inexacta, incluso contenido falso. La policía de Avon y Somerset, en el suroeste de Inglaterra, está llevando a cabo la prueba, y Soze está escaneando y analizando correos electrónicos, cuentas de redes sociales, videos, estados financieros y otros documentos relevantes.

Robot Inteligencia Artificial IA (2)

Nota de la fuente: La imagen fue generada por IA, proveedor de licencias de imágenes Midjourney

Sorprendentemente, el sistema de IA escaneó las pruebas de 27 casos "complejos" en aproximadamente 30 horas, equivalente a 81 años de trabajo manual. Estos datos parecen realmente alentadores, especialmente en un contexto de recursos humanos y presupuestarios limitados, y el departamento de policía tiene grandes expectativas en este proyecto.

El presidente de la Junta Nacional de Jefes de Policía, Gavin Stephens, dijo en una entrevista: "Podrías encontrarte con un caso frío que parece imposible de resolver, con una gran cantidad de material; con un sistema como este, podrías procesarlo y evaluarlo fácilmente". Parece tener confianza en el despliegue de estas herramientas de IA, pero antes es crucial asegurar su correcto funcionamiento.

Stephens también mencionó otro proyecto de IA en curso: la creación de una base de datos de cuchillos y espadas, ya que muchas personas sospechosas usan estas armas al atacar a las víctimas. Sin embargo, la tasa de error y el posible sesgo de la IA en la aplicación de la ley siguen siendo una preocupación. Un modelo utilizado para predecir la probabilidad de reincidencia de sospechosos resultó inexacto y mostró sesgo contra la población negra, lo que recuerda la novela de Philip K. Dick "Minority Report" y la posterior adaptación cinematográfica de Spielberg.

Además, el reconocimiento facial por IA ha llevado a arrestos erróneos, con miembros de minorías étnicas siendo erróneamente identificados como criminales. La Comisión de Derechos Civiles de Estados Unidos también ha criticado recientemente el uso de la IA en la aplicación de la ley. Existe una creencia generalizada de que el análisis automático es infalible, pero en realidad, estas IAs se basan en datos recopilados por humanos, datos que pueden estar sesgados o ser incorrectos. Por lo tanto, la aplicación de la IA en la aplicación de la ley debe ser cautelosa.

Puntos clave:

1. 🤖 La policía británica está probando el sistema de IA Soze para ayudar a resolver rápidamente casos fríos.

2. ⏱️ Soze escaneó 27 casos en 30 horas, equivalente a 81 años de trabajo manual.

3. ⚠️ El uso de la IA en la aplicación de la ley debe ser cauteloso, existe el riesgo de sesgo y errores.