Recentemente, relatos sobre tensões internas na OpenAI vieram à tona. O investidor Peter Thiel alertou Sam Altman antes de sua demissão em novembro de 2023, sobre o conflito entre os defensores da segurança da IA e a direção comercial da empresa.

De acordo com o Wall Street Journal, Thiel levantou a questão com Altman em um jantar privado em Los Angeles. Ele mencionou especificamente a influência do movimento do “Eficaz Altruísmo” (Effective Altruism) dentro da OpenAI, dizendo que Altman não percebia a influência do pesquisador de IA Eliezer Yudkowsky. "Você não tem ideia de como Eliezer convenceu metade da sua empresa a acreditar nessas teorias", disse Thiel a Altman.

OpenAI, ChatGPT, Inteligência Artificial, IA

Altman aparentemente descartou isso, citando a saída de Elon Musk em 2018. Ele argumentou que os avisos constantes de Musk e Yudkowsky sobre os riscos da IA não afetaram o desenvolvimento da empresa. No entanto, as preocupações internas com a segurança tornaram-se mais evidentes em 2024, quando várias figuras-chave na segurança da IA deixaram a OpenAI, incluindo o cientista-chefe Ilya Sutskever e Jan Leike, que liderava a equipe de "super alinhamento". Leike criticou publicamente a estratégia de segurança da empresa, alegando que sua equipe lutava por recursos computacionais.

O Wall Street Journal relatou que a CTO Mira Murati e Sutskever passaram meses reunindo evidências sobre o comportamento gerencial de Altman, documentando suas ações de divisão entre funcionários e desvios de protocolos de segurança. Na época do lançamento do GPT-4-Turbo, Altman forneceu informações imprecisas ao conselho, sem transparência sobre a estrutura de seu fundo de inicialização privado da OpenAI. O lançamento apressado dos testes de segurança após o lançamento do GPT-4o em maio de 2024 levantou mais preocupações.

Quando Murati tentou abordar diretamente as preocupações com Altman, ele trouxe representantes de recursos humanos para suas reuniões individuais, que duraram semanas, levando Murati a decidir não compartilhar mais suas preocupações com o conselho. Finalmente, quatro membros do conselho, incluindo Sutskever, decidiram demitir Altman em uma série de videoconferências confidenciais. Sutskever preparou dois documentos detalhados listando as infrações de Altman. O conselho também decidiu demitir Greg Brockman, pois Murati relatou ao conselho que ele havia contornado Murati para se comunicar diretamente com Altman.

Inicialmente, a explicação pública do conselho foi extremamente breve, afirmando apenas que Altman falhou em ser "consistentemente franco". No entanto, com a ameaça de uma saída em massa de funcionários, a situação mudou rapidamente. Altman e Brockman foram posteriormente reintegrados, com Murati e Sutskever assinando a carta de apoio à sua reinstalação, apesar de seu papel central na demissão. Sutskever ficou surpreso com o apoio dos funcionários a Altman, pois esperava que os funcionários recebessem positivamente a mudança.

A reportagem do Wall Street Journal contradiz relatos anteriores, especialmente a afirmação de Murati de que ela não estava envolvida na demissão de Altman. A coleta sistemática de evidências mostra que ela desempenhou um papel central no evento. Murati e Sutskever posteriormente deixaram a empresa para formar sua própria empresa de IA. Esta investigação reforça o papel das preocupações com a segurança da IA na breve demissão de Altman, revelando profundas divergências na alta administração da OpenAI, levando a mudanças significativas na abordagem da organização em relação à segurança e desenvolvimento da IA.

Pontos importantes:

🌐 Peter Thiel alertou Altman em um jantar privado sobre o conflito entre a segurança da IA e a direção comercial na OpenAI.

🛠️ Figuras-chave na segurança da IA saíram, enquanto Murati e Sutskever reuniram evidências de má gestão de Altman.

🔄 Altman e Brockman foram reintegrados com o apoio dos funcionários, levando a uma profunda reflexão sobre as tensões internas.