Recentemente, a equipe do laboratório FAR AI descobriu uma vulnerabilidade de segurança na API do GPT-4. Através de métodos como ajuste fino e aprimoramento de busca, eles conseguiram "quebrar" com sucesso este modelo avançado.
Os pesquisadores conseguiram fazer com que o modelo GPT-4 gerasse informações incorretas, extraísse informações privadas e inserisse URLs maliciosas. Essa vulnerabilidade destaca novos riscos à segurança que podem surgir com a expansão dos recursos da API. Usuários e pesquisadores devem proceder com cautela.