Patronus AI ha publicado el conjunto de pruebas SimpleSafetyTests, que revela vulnerabilidades de seguridad críticas en sistemas de IA como ChatGPT. Las pruebas pusieron de manifiesto importantes debilidades en 11 modelos lingüísticos grandes (LLM), destacando que las indicaciones de seguridad pueden reducir las respuestas inseguras. Los resultados indican que los LLM necesitan soluciones de seguridad rigurosas y personalizadas antes de su implementación en aplicaciones del mundo real.