A Meta anunciou recentemente que está disponibilizando seu modelo de inteligência artificial da série Llama para agências governamentais e contratados dos EUA, para apoiar aplicações de segurança nacional.

Essa medida visa dissipar preocupações de que a inteligência artificial “aberta” possa beneficiar adversários estrangeiros. Em um post de blog, a Meta declarou: "Temos o prazer de confirmar que o Llama estará disponível para agências governamentais dos EUA, incluindo aquelas focadas em defesa e segurança nacional, e parceiros do setor privado que apoiam esses esforços."

Llama2, Meta, Inteligência Artificial, Modelo de Linguagem Ampla, IA

Para impulsionar este projeto, a Meta firmou parcerias com várias empresas de renome, incluindo Accenture, Amazon Web Services, Andrill, Booz Allen, Databricks, Deloitte, IBM, Leidos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI e Snowflake. Essas empresas ajudarão a aplicar o modelo Llama a várias tarefas de segurança nacional.

Por exemplo, a Oracle está usando o Llama para processar documentos de manutenção de aeronaves, enquanto a Scale AI está ajustando o Llama para tarefas específicas de segurança nacional. Já a Lockheed Martin planeja fornecer o Llama a seus clientes de defesa para ajudá-los a gerar código de computador, entre outras coisas.

Normalmente, a política da Meta proíbe os desenvolvedores de usar o Llama em projetos relacionados a militares, guerra ou espionagem. No entanto, neste caso, a Meta decidiu fazer uma exceção, permitindo que agências e contratados relacionados ao governo dos EUA usem o Llama, além de instituições semelhantes no Reino Unido, Canadá, Austrália e Nova Zelândia.

É importante notar que, recentemente, houve relatos de que pesquisadores associados ao Exército de Libertação Popular da China usaram uma versão antiga do modelo Llama (Llama2) para desenvolver um chatbot focado em assuntos militares, projetado para coletar e processar informações de inteligência para auxiliar na tomada de decisões operacionais. A Meta respondeu que o uso do modelo foi "não autorizado" e violou a política de uso aceitável da empresa. No entanto, esse incidente gerou um debate mais amplo sobre os prós e contras da inteligência artificial aberta.

Com o aumento do uso da inteligência artificial em inteligência militar, vigilância e reconhecimento, os riscos de segurança relacionados estão surgindo. Um estudo do AI Now Institute indica que os sistemas de inteligência artificial existentes dependem de dados pessoais que podem ser extraídos e usados como armas por adversários. Além disso, os sistemas de inteligência artificial também apresentam vieses e alucinações, para os quais ainda não há soluções eficazes. Os pesquisadores recomendam o desenvolvimento de sistemas de inteligência artificial dedicados, isolados dos modelos “comerciais”.

Embora a Meta afirme que a IA aberta pode acelerar a pesquisa de defesa e promover os interesses econômicos e de segurança dos EUA, os militares americanos ainda estão cautelosos com a adoção dessa tecnologia, com apenas o Exército tendo implantado inteligência artificial generativa até o momento.

Destaques:

🌐 A Meta está disponibilizando o modelo Llama para o governo dos EUA e contratados de defesa, para apoiar aplicações de segurança nacional.

🤝 Várias empresas de renome estão colaborando com a Meta para impulsionar o uso do modelo Llama na defesa.

⚖️ Os riscos de segurança da inteligência artificial aberta em aplicações militares estão gerando debates, e pesquisadores pedem o desenvolvimento de modelos especializados.