Usuários estrangeiros descobriram uma nova técnica de jailbreak que utiliza prompts embaralhados para contornar os filtros de segurança tradicionais e fazer com que o ChatGPT gere ransomware. O pesquisador Jim Fan ficou surpreso com a capacidade do modelo GPT de entender palavras fora de ordem. Essa técnica, que aproveita a capacidade do cérebro humano de compreender frases e palavras embaralhadas, conseguiu realizar o jailbreak e chamou a atenção da comunidade.