No mundo de rápido desenvolvimento da inteligência artificial, embora a IA generativa tenha trazido muitas conveniências, a desinformação que ela gera tornou-se um problema que não pode ser ignorado. Para enfrentar esse desafio, a gigante de tecnologia Microsoft lançou recentemente uma nova ferramenta chamada "Correction", projetada para corrigir informações falsas em conteúdo gerado por IA.
Como parte da API de segurança de conteúdo do Microsoft Azure AI, a "Correction" está atualmente em fase de pré-visualização. Essa ferramenta pode marcar automaticamente texto que possa conter erros, como resumos incorretos de relatórios financeiros trimestrais de empresas, e compará-lo com fontes confiáveis para corrigir esses erros. É importante notar que essa tecnologia é aplicável a todos os modelos de IA de geração de texto, incluindo Llama do Meta e GPT-4 da OpenAI.
Um porta-voz da Microsoft disse que a "Correction" garante que o conteúdo gerado seja consistente com documentos reais, combinando modelos de linguagem pequenos e grandes. Eles esperam que esse novo recurso ajude os desenvolvedores em áreas como saúde a melhorar a precisão das respostas.
No entanto, os especialistas são cautelosos. Os Keyes, doutorando da Universidade de Washington, acredita que tentar eliminar a ilusão da IA generativa é como tentar remover o hidrogênio da água – é um componente fundamental do funcionamento da tecnologia. Na verdade, os modelos de geração de texto produzem informações falsas porque eles não "sabem" nada, apenas fazem suposições com base em seus conjuntos de treinamento. Um estudo descobriu que o ChatGPT da OpenAI tem uma taxa de erro de até 50% ao responder perguntas médicas.
A solução da Microsoft é identificar e corrigir essas informações falsas usando um par de metamodelos de "edição" que se referenciam entre si. Um modelo de classificação é responsável por procurar possíveis erros, ficções ou fragmentos de texto irrelevantes; se esses problemas forem detectados, um segundo modelo de linguagem é introduzido para tentar corrigir com base em um "documento base" específico.
Embora a Microsoft afirme que a "Correction" pode melhorar significativamente a confiabilidade e a credibilidade do conteúdo gerado por IA, os especialistas ainda têm dúvidas. Mike Cook, pesquisador da Queen Mary University, aponta que, mesmo que a "Correction" seja tão eficaz quanto anunciado, ela pode exacerbar os problemas de confiança e explicabilidade da IA. O serviço pode dar aos usuários uma falsa sensação de segurança, levando-os a acreditar que a precisão do modelo é maior do que realmente é.
Vale mencionar que a Microsoft também tem cálculos comerciais ocultos ao lançar a "Correction". Embora o recurso em si seja gratuito, o recurso de "detecção de documentos base" necessário para detectar informações falsas tem um limite de uso mensal, e o excesso é cobrado.
A Microsoft está claramente sob pressão para provar o valor de seu investimento em IA. No segundo trimestre deste ano, a empresa gastou quase US$ 19 bilhões em despesas de capital e equipamentos relacionados à IA, mas até agora obteve pouca receita com a IA. Recentemente, analistas de Wall Street rebaixaram a classificação das ações da Microsoft, questionando a viabilidade de sua estratégia de IA a longo prazo.
A precisão e os riscos potenciais de desinformação tornaram-se uma das maiores preocupações das empresas ao testar ferramentas de IA. Cook conclui que, se este for um ciclo de vida de produto normal, a IA generativa ainda deve estar em estágio de pesquisa e desenvolvimento acadêmico, continuando a melhorar e entender seus prós e contras. No entanto, já a implantamos em vários setores.
A ferramenta "Correction" da Microsoft é, sem dúvida, uma tentativa de resolver o problema da desinformação da IA, mas se ela realmente conseguir resolver a crise de confiança da IA generativa ainda precisa ser comprovado pelo tempo. Ao mesmo tempo em que a tecnologia de IA se desenvolve rapidamente, como equilibrar inovação e risco será um desafio importante para todo o setor.