Au Royaume-Uni, une force de police teste un système d'intelligence artificielle appelé Soze, qui pourrait aider les forces de l'ordre à résoudre rapidement des affaires non résolues de longue date. Selon Sky News, ce programme australien d'IA pourrait réduire des décennies d'enquête à quelques heures seulement.
Pour l'instant, il n'existe pas de données détaillées sur la précision de ce système d'IA, ce qui est un point d'inquiétude majeur. Comme chacun le sait, les modèles d'IA peuvent parfois produire des informations inexactes, voire des fabrications. La police d'Avon et du Somerset, dans le sud-ouest de l'Angleterre, mène actuellement les tests. Soze analyse et examine les emails, les comptes de médias sociaux, les vidéos, les relevés financiers et autres documents pertinents.
Source : L'image a été générée par IA, fournisseur de services d'autorisation d'images : Midjourney
De manière impressionnante, le système d'IA a analysé les preuves de 27 affaires « complexes » en environ 30 heures, ce qui équivaut à 81 années de travail humain. Ces chiffres sont encourageants, surtout compte tenu des contraintes budgétaires et de personnel, et les forces de police attendent beaucoup de ce projet.
Gavin Stephens, président du Collège national des chefs de police, a déclaré lors d'une interview : « Vous pouvez vous retrouver face à une affaire classée apparemment insoluble, avec une montagne de documents. Un tel système permet de traiter facilement ces données et de fournir une évaluation. » Il semble confiant dans le déploiement de ces outils d'IA, mais il est essentiel de s'assurer de leur bon fonctionnement au préalable.
Stephens a également mentionné un autre projet d'IA en cours, la création d'une base de données d'armes blanches, car de nombreux suspects utilisent ce type d'arme lors d'agressions. Cependant, la question du taux d'erreur et des biais potentiels de l'IA dans l'application de la loi reste préoccupante. Un modèle utilisé pour prédire la probabilité de récidive chez les suspects s'est révélé inexact et biaisé envers les personnes noires, ce qui rappelle le roman de Philip K. Dick, « Minority Report », et son adaptation cinématographique par Spielberg.
De plus, la reconnaissance faciale par IA a déjà conduit à de fausses arrestations, les minorités étant souvent identifiées à tort comme des criminels. La Commission américaine des droits civiques a récemment critiqué l'utilisation de l'IA dans les forces de l'ordre. On suppose souvent que l'analyse machine est infaillible, mais en réalité, ces IA sont construites à partir de données collectées par des humains, données qui peuvent être biaisées et erronées. Par conséquent, l'utilisation de l'IA dans l'application de la loi doit être prudente.
Points clés :
1. 🤖 La police britannique teste le système d'IA Soze pour aider à résoudre rapidement les affaires classées.
2. ⏱️ Soze a analysé les preuves de 27 affaires en 30 heures, soit l'équivalent de 81 années de travail humain.
3. ⚠️ L'utilisation de l'IA dans l'application de la loi doit être prudente en raison des risques de biais et d'erreurs.