Recentemente, um grupo de senadores americanos enviou uma carta importante ao CEO da OpenAI, Sam Altman, exigindo a divulgação detalhada de informações sobre medidas de segurança e condições de trabalho até 13 de agosto de 2024. Essa solicitação surge após reportagens na mídia que revelaram potenciais riscos de segurança da OpenAI, incluindo a saída de vários pesquisadores de segurança de IA, vulnerabilidades de segurança e preocupações dos funcionários.
Observação da fonte: Imagem gerada por IA, fornecida pela Midjourney.
A carta foi motivada pelas denúncias de ex-funcionários que criticaram severamente as medidas de segurança da OpenAI no desenvolvimento de IA. Relatos indicam que o novo modelo de IA da OpenAI, GPT-4o, concluiu os testes de segurança em apenas uma semana, prática que gerou preocupações entre especialistas em segurança. Este novo modelo foi acusado de ser capaz de gerar conteúdo malicioso, como instruções para fabricar bombas, com prompts simples.
Os senadores enfatizaram na carta a necessidade de confiança pública na capacidade da OpenAI de manter a segurança no desenvolvimento de seus sistemas. Isso inclui a integridade da governança corporativa, a regularidade dos testes de segurança, a equidade das práticas de contratação, o cumprimento dos compromissos públicos e a execução das políticas de segurança cibernética. Eles apontaram que os compromissos de segurança anteriores da OpenAI ao governo Biden precisam ser concretizados.
Em resposta às solicitações dos senadores, a OpenAI publicou algumas declarações nas redes sociais, mencionando a recente criação de um comitê de segurança e garantia, os avanços no AGI de nível cinco, a preparação de uma estrutura e a revisão do contrato de trabalho criticado. A OpenAI espera que essas medidas demonstrem suas melhorias em segurança e governança.
**Destaques:**
📧 **Senadores exigem detalhes da OpenAI**: Senadores americanos exigem que o CEO da OpenAI forneça detalhes sobre segurança e condições de trabalho até 13 de agosto de 2024.
🔍 **Ex-funcionários denunciam riscos de segurança**: Ex-funcionários expuseram potenciais riscos de segurança no desenvolvimento de IA pela OpenAI, incluindo vulnerabilidades decorrentes do lançamento apressado de novos modelos.
🛡️ **OpenAI responde com medidas de melhoria**: A OpenAI respondeu que tomou medidas, incluindo a criação de um novo comitê e a revisão dos contratos de trabalho, para abordar as preocupações externas sobre segurança e governança.