O Patronus AI lançou o conjunto de testes SimpleSafetyTests, revelando vulnerabilidades de segurança cruciais em sistemas de IA como o ChatGPT. Os testes expuseram fraquezas significativas em 11 LLMs, destacando que instruções de segurança podem reduzir respostas inseguras. Os resultados demonstram que, antes de serem aplicados em situações reais, os LLMs precisam de soluções de segurança rigorosas e personalizadas.