Patronus AI ha publicado el conjunto de pruebas SimpleSafetyTests, que revela vulnerabilidades de seguridad críticas en sistemas de IA como ChatGPT. Las pruebas pusieron de manifiesto importantes debilidades en 11 modelos lingüísticos grandes (LLM), destacando que las indicaciones de seguridad pueden reducir las respuestas inseguras. Los resultados indican que los LLM necesitan soluciones de seguridad rigurosas y personalizadas antes de su implementación en aplicaciones del mundo real.
Patronus AI descubre vulnerabilidades de seguridad "preocupantes" en sistemas de IA líderes

站长之家
57
© Todos los derechos reservados AIbase 2024, haz clic para ver la fuente original - https://www.aibase.com/es/news/4367