El 1 de enero, un impactante incidente tuvo lugar en Las Vegas. Un hombre detonó un Tesla Cybertruck frente al hotel Trump. Tras la investigación del Departamento de Policía de Las Vegas, se reveló que el hombre había utilizado la herramienta de chat de inteligencia artificial ChatGPT para planificar el atentado.
Nota de la imagen: Imagen generada por IA, proveída por Midjourney.
En una conferencia de prensa, la policía declaró que el hombre involucrado, Matthew Liversberg, realizó más de 17 preguntas a ChatGPT en los días previos al incidente. Estas preguntas incluían cómo obtener los materiales necesarios para la explosión, cuestiones legales relacionadas y cómo usar un arma de fuego para detonar los explosivos elegidos. Durante una hora completa, Liversberg interactuó con ChatGPT en inglés sencillo, discutiendo temas como la legalidad de los fuegos artificiales en Arizona, dónde comprar armas en Denver y qué tipo de arma sería efectiva para detonar los explosivos.
La asistente del sheriff, Dory Colon, confirmó que las respuestas de ChatGPT jugaron un papel clave en la planificación de la explosión. ChatGPT proporcionó información sobre la velocidad de disparo de las armas, lo que permitió a Liversberg llevar a cabo su plan. Aunque el efecto de la explosión final no fue tan potente como él esperaba, y parte de los explosivos no se encendieron como se preveía, el incidente sigue siendo extremadamente preocupante para las autoridades.
El jefe de policía de Las Vegas, Kevin McGill, declaró: "Siempre supimos que la inteligencia artificial cambiaría nuestras vidas en algún momento, pero esta es la primera vez que veo a alguien usar ChatGPT para planificar algo tan peligroso". Señaló que actualmente no existe un mecanismo de supervisión gubernamental capaz de identificar estas consultas relacionadas con explosivos y armas de fuego.
Aunque la policía de Las Vegas no ha revelado el contenido específico de las preguntas a ChatGPT, las preguntas mostradas en la conferencia de prensa fueron relativamente sencillas y no utilizaron la terminología tradicional de "jailbreak". Cabe destacar que este uso infringe claramente la política y los términos de uso de OpenAI, pero aún no está claro si las medidas de seguridad de OpenAI funcionaron mientras Liversberg usaba la herramienta.
En respuesta, OpenAI afirmó que está comprometido con el uso "responsable" de sus herramientas por parte de los usuarios y tiene como objetivo que sus herramientas de inteligencia artificial rechacen instrucciones dañinas. OpenAI explicó además: "En este caso, ChatGPT simplemente respondió basándose en información públicamente disponible en internet y también proporcionó advertencias sobre actividades dañinas o ilegales. Estamos trabajando constantemente para hacer que la IA sea más inteligente y responsable". La empresa está cooperando con las fuerzas del orden para apoyar su investigación.
Puntos clave:
🔍 El incidente ocurrió el 1 de enero de 2024, un hombre detonó un Tesla Cybertruck frente al hotel Trump en Las Vegas.
💡 El hombre utilizó ChatGPT para planificar el atentado durante una hora, haciendo preguntas sobre cómo obtener explosivos y armas.
⚠️ La policía afirma que es la primera vez en Estados Unidos que un individuo utiliza ChatGPT para una actividad tan peligrosa, y que no se ha encontrado un mecanismo de supervisión gubernamental efectivo.