Le 1er janvier, un événement choquant s'est produit à Las Vegas. Un homme a fait exploser un Tesla Cybertruck devant le Trump Hotel. Après enquête du département de police de Las Vegas, les autorités ont révélé que l'homme avait utilisé l'outil de discussion par intelligence artificielle ChatGPT pour planifier l'explosion.

Incendie Explosion (1)

Source de l'image : image générée par IA, fournisseur de services d'autorisation d'images Midjourney

Lors d'une conférence de presse, la police a déclaré que Matthew Liversberg, l'homme impliqué, avait posé plus de 17 questions à ChatGPT dans les jours précédant l'incident. Ces questions portaient sur l'obtention des matériaux nécessaires à l'explosion, les questions juridiques connexes et la manière d'utiliser une arme à feu pour faire exploser les explosifs choisis. Pendant une heure entière, Liversberg a interagi avec ChatGPT en anglais simple, abordant des questions telles que la légalité des feux d'artifice en Arizona, où acheter des armes à feu à Denver et quel type d'arme à feu serait efficace pour faire exploser les explosifs.

Le shérif adjoint Dory Colon a confirmé que les réponses de ChatGPT avaient joué un rôle clé dans la planification de l'explosion. ChatGPT a fourni des informations sur la vitesse de tir des armes à feu, permettant à Liversberg de mener à bien son plan. Bien que l'explosion n'ait pas été aussi puissante qu'il l'avait prévu, une partie des explosifs ne s'étant pas enflammés comme prévu, l'incident a néanmoins profondément choqué les forces de l'ordre.

Le chef de la police de Las Vegas, Kevin McGeil, a déclaré : « Nous savions depuis longtemps que l'intelligence artificielle allait changer nos vies à un moment donné, mais c'est la première fois que je vois quelqu'un utiliser ChatGPT pour élaborer un plan aussi dangereux. » Il a souligné qu'il n'existait actuellement aucun mécanisme de surveillance gouvernemental capable de signaler ces requêtes liées aux explosifs et aux armes à feu.

Bien que la police de Las Vegas n'ait pas encore révélé le contenu exact des questions posées à ChatGPT, les questions présentées lors de la conférence de presse étaient relativement simples et n'utilisaient pas de termes de « jailbreak » traditionnels. Il est important de noter que cette utilisation est clairement contraire à la politique d'utilisation et aux conditions d'OpenAI, mais on ignore si les mesures de sécurité d'OpenAI ont fonctionné lorsque Liversberg a utilisé l'outil.

En réponse, OpenAI a déclaré qu'il s'engageait à ce que les utilisateurs utilisent ses outils de manière « responsable » et vise à ce que ses outils d'IA refusent les instructions nuisibles. OpenAI a ajouté : « Dans cet incident, ChatGPT a simplement répondu en fonction des informations déjà publiques sur Internet et a également émis des avertissements concernant les activités nuisibles ou illégales. Nous nous efforçons constamment de rendre l'IA plus intelligente et plus responsable. » L'entreprise coopère avec les forces de l'ordre pour soutenir leur enquête.

Points clés :

🔍 L'incident s'est produit le 1er janvier 2024. Un homme a fait exploser un Tesla Cybertruck devant le Trump Hotel à Las Vegas.

💡 L'homme a utilisé ChatGPT pendant une heure pour planifier l'explosion, posant des questions sur l'obtention d'explosifs et d'armes à feu.

⚠️ La police a déclaré qu'il s'agissait de la première fois aux États-Unis qu'une personne utilisait ChatGPT pour une activité aussi dangereuse, et qu'aucun mécanisme de réglementation gouvernemental efficace n'avait été détecté.