Recentemente, a OpenAI lançou seu mais recente cartão de sistema GPT-4o, um documento de pesquisa detalhado que descreve as medidas de segurança e avaliações de risco tomadas pela empresa antes do lançamento do novo modelo.
O modelo GPT-4o foi oficialmente lançado em maio deste ano. Antes do lançamento, a OpenAI contratou uma equipe externa de especialistas em segurança para realizar uma avaliação de risco, um teste de "red team" bastante comum. Eles se concentraram principalmente nos riscos potenciais do modelo, como a geração de clones de voz não autorizados, conteúdo obsceno e violento, ou fragmentos de áudio protegidos por direitos autorais repetidos.
De acordo com a própria estrutura da OpenAI, os pesquisadores classificaram a avaliação de risco geral do GPT-4o como "moderada". Essa classificação de risco é baseada na maior classificação de risco em quatro categorias principais: segurança cibernética, ameaças biológicas, persuasão e autonomia do modelo. Com exceção da persuasão, as outras categorias foram consideradas de baixo risco. Os pesquisadores descobriram que alguns textos gerados pelo GPT-4o eram mais persuasivos em influenciar a opinião do leitor do que os textos escritos por humanos, embora, em geral, não fossem mais persuasivos.
A porta-voz da OpenAI, Lindsay McCallum Rémy, disse que o cartão de sistema inclui avaliações preparatórias criadas conjuntamente por equipes internas e testadoras externas, incluindo as equipes de Avaliação de Modelos e Pesquisa de Ameaças (METR) e Apollo Research, listadas no site da OpenAI, que se concentram na avaliação de sistemas de IA. Esta não é a primeira vez que a OpenAI publica um cartão de sistema; o GPT-4, o GPT-4 visual e o DALL-E3 também passaram por testes semelhantes e tiveram seus resultados de pesquisa publicados.
Mas o lançamento deste cartão de sistema ocorre em um momento crucial, com a OpenAI enfrentando críticas crescentes de funcionários internos e senadores estaduais que questionam seus padrões de segurança. Minutos antes do lançamento do cartão de sistema GPT-4o, a senadora estadual de Massachusetts, Elizabeth Warren, e a representante Lori Trahan, assinaram conjuntamente uma carta aberta pedindo à OpenAI respostas sobre como lida com denúncias e revisões de segurança. Muitas das questões de segurança mencionadas na carta incluem a breve demissão do CEO Sam Altman em 2023 devido a preocupações do conselho e a saída de um executivo de segurança que alegou que "a cultura e os processos de segurança foram sufocados por produtos bonitos".
Além disso, a OpenAI lançou um poderoso modelo multimodal pouco antes da eleição presidencial americana, o que claramente apresenta riscos potenciais de desinformação ou uso indevido por atores mal-intencionados. Embora a OpenAI espere prevenir o uso indevido por meio de testes em cenários reais, a demanda por transparência por parte do público está crescendo. Especialmente na Califórnia, o senador estadual Scott Wiener está promovendo um projeto de lei para regular o uso de modelos de linguagem grandes, incluindo a exigência de que as empresas assumam a responsabilidade legal quando sua IA for usada para fins nocivos. Se aprovada, os modelos de ponta da OpenAI deverão cumprir as avaliações de risco estabelecidas pelo estado antes de serem lançados ao público.
Destaques:
🌟 O modelo GPT-4o da OpenAI foi avaliado como tendo um risco "moderado", com foco principal em segurança cibernética e persuasão.
🔍 O lançamento do cartão de sistema ocorre em um momento crucial, com a OpenAI enfrentando crescentes questionamentos sobre seus padrões de segurança.
🗳️ O momento do lançamento é sensível, ocorrendo antes da eleição presidencial americana, com riscos de desinformação e uso indevido.