A OpenAI enfrenta um dilema complicado: como lidar com a prática de alunos que usam o ChatGPT para trapacear? Embora a empresa tenha desenvolvido um método confiável para detectar artigos ou trabalhos acadêmicos escritos pelo ChatGPT, essa tecnologia ainda não foi lançada publicamente devido às preocupações generalizadas sobre o uso de IA pelos alunos para trapacear.

A OpenAI desenvolveu com sucesso uma tecnologia confiável para detectar conteúdo gerado pelo ChatGPT. Essa tecnologia insere uma "marca d'água" nos textos gerados por IA, alcançando uma precisão de detecção de até 99,9%. No entanto, o que é intrigante é que essa tecnologia, que poderia resolver um problema urgente, ainda não foi lançada publicamente. Fontes internas revelam que o projeto tem sido debatido internamente na OpenAI por quase dois anos e estava pronto para lançamento há um ano.

OpenAI, inteligência artificial, IA

Os fatores que impedem o lançamento dessa tecnologia são complexos. Primeiro, a OpenAI enfrenta um dilema: manter seu compromisso com a transparência ou preservar a lealdade dos usuários? Pesquisas internas mostram que quase um terço dos usuários fiéis do ChatGPT se opõem à tecnologia antifraude. Esse dado, sem dúvida, coloca uma enorme pressão na tomada de decisões da empresa.

Em segundo lugar, a OpenAI teme que a tecnologia possa ter um impacto negativo desproporcional em alguns grupos, especialmente aqueles que não são falantes nativos de inglês. Essa preocupação reflete uma questão central da ética da IA: como garantir a justiça e a inclusão das tecnologias de IA?

Entretanto, ao mesmo tempo, a demanda por essa tecnologia no meio educacional está crescendo. De acordo com uma pesquisa do Centro para Democracia e Tecnologia, 59% dos professores do ensino fundamental e médio acreditam que os alunos já estão usando IA para fazer tarefas de casa, um aumento de 17 pontos percentuais em relação ao ano letivo anterior. Os educadores precisam urgentemente de ferramentas para lidar com esse desafio e manter a integridade acadêmica.

A hesitação da OpenAI gerou controvérsias internas. Os funcionários que defendem o lançamento da ferramenta argumentam que as preocupações da empresa são insignificantes em comparação com os enormes benefícios sociais que a tecnologia pode trazer. Essa perspectiva destaca a tensão entre o desenvolvimento tecnológico e a responsabilidade social.

A própria tecnologia também apresenta alguns problemas potenciais. Apesar da alta taxa de precisão de detecção, alguns funcionários temem que a marca d'água possa ser removida por meio de métodos simples, como softwares de tradução ou edição manual. Essa preocupação reflete os desafios que a tecnologia de IA enfrenta em aplicações práticas.

Além disso, controlar o alcance do uso dessa tecnologia também é um problema complicado. Um alcance muito limitado reduziria sua utilidade, enquanto um alcance muito amplo poderia levar à quebra da tecnologia. Esse equilíbrio requer um design e gerenciamento cuidadosos.

Vale ressaltar que outras grandes empresas de tecnologia também estão atuando nessa área. O Google já desenvolveu a ferramenta SynthID, que detecta textos gerados por sua IA Gemini, embora ainda esteja em fase de teste. Isso reflete a importância da verificação da autenticidade do conteúdo em toda a indústria de IA.

A OpenAI também priorizou o desenvolvimento de tecnologias de marca d'água de áudio e vídeo, especialmente no ano da eleição presidencial americana. Essa decisão destaca que as empresas de IA devem considerar impactos sociais mais amplos no desenvolvimento de tecnologias.

Referências: https://www.wsj.com/tech/ai/openai-tool-chatgpt-cheating-writing-135b755a?st=ejj4hy2haouysas&reflink=desktopwebshare_permalink