Investigadores de la Universidad Purdue han diseñado un nuevo método que induce con éxito a los grandes modelos de lenguaje a generar contenido dañino. Advierten a la comunidad de inteligencia artificial que debe ser cautelosa al liberar modelos de lenguaje de código abierto y proponen que la eliminación de contenido dañino es una mejor solución. Los resultados de la investigación revelan los peligros potenciales ocultos en las respuestas conformes, con una tasa de éxito del método del 98%.
Investigadores inducen con éxito a un chatbot de IA a revelar contenido dañino

站长之家
Este artículo proviene de AIbase Daily
¡Bienvenido a la columna [AI Diario]! Aquí está tu guía diaria para explorar el mundo de la inteligencia artificial. Todos los días te presentamos el contenido más destacado en el campo de la IA, centrándonos en los desarrolladores para ayudarte a comprender las tendencias tecnológicas y conocer las aplicaciones innovadoras de productos de IA.