Recentemente, Miles Brundage, ex-chefe de pesquisa de políticas da OpenAI, criticou a mudança na narrativa da empresa sobre a segurança da inteligência artificial, argumentando que a OpenAI está reescrevendo a história da segurança de seus sistemas de IA. Ele afirma que, na busca pela inteligência artificial geral (AGI), a OpenAI pode estar negligenciando medidas de segurança de longo prazo.

OpenAI, inteligência artificial, IA

A OpenAI tem se dedicado a promover sua ambiciosa visão, especialmente com o crescimento de concorrentes como a DeepSeek. Na busca pelo desenvolvimento da AGI, a empresa frequentemente destaca o potencial de agentes de superinteligência artificial, mas essa postura não tem sido amplamente aceita. Brundage acredita que existe uma inconsistência na narrativa da OpenAI sobre a implantação e segurança de seus modelos de IA existentes.

Recentemente, a OpenAI publicou um documento sobre a implantação gradual de seus modelos de IA, com o objetivo de demonstrar sua abordagem cautelosa. O documento usa o GPT-2 como exemplo, enfatizando a necessidade de extrema cautela no tratamento dos sistemas atuais. A OpenAI menciona no documento: "Em um mundo descontínuo, as lições de segurança vêm da extrema cautela com os sistemas de hoje, e essa foi a abordagem que tomamos com o modelo GPT-2."

No entanto, Brundage questiona isso. Ele argumenta que o lançamento do GPT-2 também seguiu uma abordagem gradual, e especialistas em segurança elogiaram a cautela da OpenAI. Ele acredita que a cautela passada não foi excessiva, mas sim necessária e responsável.

Além disso, Brundage expressa preocupação com a afirmação da OpenAI de que a AGI virá através de passos graduais, e não de uma ruptura repentina. Ele considera preocupante a interpretação equivocada da OpenAI sobre o histórico de lançamento do GPT-2 e a reescrita da história da segurança. Ele também aponta que o documento publicado pela OpenAI pode, em certa medida, levar a que as preocupações de segurança sejam vistas como uma reação exagerada, o que pode representar um risco significativo no contexto do desenvolvimento contínuo dos sistemas de IA.

Esta não é a primeira vez que a OpenAI recebe críticas; especialistas questionam se a empresa está fazendo um balanço razoável entre a segurança a longo prazo e os benefícios a curto prazo. As preocupações de Brundage voltam a chamar a atenção para a importância da segurança da IA.

Destaques:

🌐 O ex-chefe de políticas da OpenAI questiona a mudança na narrativa da empresa sobre a segurança da IA, considerando-a uma deturpação da história.

🚀 O documento publicado pela OpenAI enfatiza a importância do lançamento cauteloso de modelos de IA, mas foi criticado por um ex-funcionário.

⚠️ O desenvolvimento futuro de sistemas de IA deve priorizar as medidas de segurança, e especialistas expressam preocupações a respeito.