Pesquisadores da Universidade Purdue desenvolveram um novo método que induz com sucesso modelos de linguagem grandes a gerar conteúdo prejudicial. Eles alertam a comunidade de inteligência artificial sobre os perigos de liberar modelos de linguagem de código aberto e sugerem que a remoção de conteúdo prejudicial seja uma solução melhor. Os resultados da pesquisa revelam os perigos ocultos em respostas aparentemente conformes, com uma taxa de sucesso de até 98%.
Pesquisadores induzem com sucesso chatbot de IA a vazar conteúdo prejudicial

站长之家
Este artigo é do AIbase Daily
Bem-vindo à coluna [AI Daily]! Este é o seu guia para explorar o mundo da inteligência artificial todos os dias. Todos os dias apresentamos os destaques da área de IA, com foco nos desenvolvedores, para o ajudar a obter insights sobre as tendências tecnológicas e a compreender as aplicações inovadoras de produtos de IA.