De acordo com um comunicado de imprensa divulgado na sexta-feira, a Apple assinou o compromisso voluntário da Casa Branca para desenvolver inteligência artificial segura, confiável e digna de confiança. Isso marca a iminente integração do produto de IA generativa da Apple, Apple Intelligence, em seus produtos principais, atendendo a 2 bilhões de usuários da Apple.

Em julho de 2023, a Apple, juntamente com outras 15 empresas de tecnologia, incluindo Amazon, Google, Meta e Microsoft, comprometeu-se a seguir as regras básicas de IA generativa estabelecidas pela Casa Branca. Embora a Apple não tenha revelado planos específicos para integrar a tecnologia de IA ao iOS na época, na Conferência Mundial de Desenvolvedores (WWDC) de junho, a Apple declarou seu compromisso total com a IA generativa, começando com parcerias para incorporar o ChatGPT ao iPhone.

202310250929272046_0.jpg

Embora o compromisso voluntário da Apple com a Casa Branca tenha um poder de execução limitado, representa um primeiro passo da empresa no campo da IA. A Casa Branca descreveu isso como o "primeiro passo" para a Apple e outras empresas desenvolverem IA segura, confiável e digna de confiança. Isso será seguido pela ordem executiva de IA do presidente Biden, emitida em outubro, e várias leis estão atualmente em discussão em órgãos legislativos federais e estaduais para melhor regular os modelos de IA.

De acordo com o compromisso, as empresas de IA realizarão testes de "red teaming" em modelos de IA antes de seu lançamento público e compartilharão essas informações com o público. Além disso, as empresas devem manter em segredo os pesos dos modelos de IA não lançados, pesquisá-los em um ambiente seguro e restringir o acesso a esses pesos. Finalmente, as empresas concordaram em desenvolver sistemas de rotulagem de conteúdo, como marcas d'água, para ajudar os usuários a distinguir entre conteúdo gerado por IA e conteúdo não gerado por IA.

O Departamento de Comércio dos EUA disse que em breve divulgará um relatório sobre os potenciais benefícios, riscos e impactos dos modelos básicos de código aberto. A IA de código aberto está se tornando um campo de batalha regulatório altamente politizado. Alguns grupos defendem a restrição do acesso aos pesos dos modelos de IA poderosos em nome da segurança, mas isso pode restringir o crescimento de startups de IA e do ecossistema de pesquisa. A posição da Casa Branca nesse assunto pode ter um impacto significativo em todo o setor de IA.

A Casa Branca também observou que as agências federais fizeram progressos significativos nas tarefas estabelecidas pela ordem executiva de outubro. Até o momento, as agências federais contrataram mais de 200 funcionários relacionados à IA, concederam acesso a recursos computacionais a mais de 80 equipes de pesquisa e publicaram vários frameworks para o desenvolvimento de IA.