Uma pesquisa da IBM demonstra que é relativamente fácil enganar grandes modelos de linguagem, como o GPT-4, para gerar código malicioso ou fornecer conselhos de segurança falsos. Os pesquisadores descobriram que, com apenas um conhecimento básico de inglês e compreensão dos dados de treinamento do modelo, hackers podem facilmente enganar os chatbots de IA para fornecer informações falsas ou gerar código malicioso. A pesquisa também descobriu que diferentes modelos de IA têm diferentes níveis de suscetibilidade à manipulação; o GPT-3.5 e o GPT-4 são mais facilmente enganados, enquanto o Bard do Google e os modelos do Hugging Face são mais resistentes. Este estudo destaca vulnerabilidades de segurança em grandes modelos de linguagem, que hackers podem explorar para obter informações pessoais de usuários ou fornecer conselhos de segurança perigosos.
Chatbots de IA são facilmente enganados, de acordo com pesquisa da IBM
