Recentemente, a Microsoft apresentou um pedido de patente que visa reduzir ou eliminar informações falsas geradas por inteligência artificial. A patente, intitulada "Interação com modelos de linguagem usando conhecimento externo e feedback", foi apresentada ao Escritório de Patentes e Marcas Registradas dos EUA (USPTO) no ano passado e divulgada em 31 de outubro.

O cerne desta proposta é fornecer aos modelos de IA um "Sistema de Aprimoramento de Resposta" (SAR) que permite extrair automaticamente mais informações com base nas consultas do usuário e verificar a "validade" de suas respostas.

Microsoft

Especificamente, o Sistema de Aprimoramento de Resposta pode identificar se há informações de "fontes externas" que podem responder melhor às perguntas do usuário. Se a resposta da IA não incluir essas informações, o sistema a considera pouco útil. Além disso, o SAR também pode alertar o usuário sobre possíveis deficiências em sua resposta, permitindo que o usuário forneça feedback. A vantagem desta solução é que não requer ajustes detalhados nos modelos existentes por parte dos desenvolvedores ou da empresa.

Atualmente, o site do USPTO ainda não mostra o número da patente, o que significa que ela ainda está em análise. Entramos em contato com a Microsoft para obter mais informações, incluindo se a patente está relacionada à ferramenta de redução de alucinações de IA anunciada anteriormente pela Microsoft – a ferramenta Azure AI Content Safety. Essa ferramenta fornece verificação impulsionada por IA para chatbots de IA corporativos, realizando verificação de fatos em segundo plano para determinar se as respostas da IA são "sem fundamento" ou "fundamentadas", fornecendo apenas respostas com suporte de dados reais antes de apresentá-las ao usuário.

O problema das alucinações de IA é um dos maiores desafios enfrentados pela IA generativa, afetando severamente a credibilidade dos chatbots de IA. Nesse sentido, os sistemas de IA do Google e do Twitter já geraram erros notáveis, como sugerir aos usuários que aplicassem cola em pizza ou comessem pedras, ou até mesmo espalhassem informações falsas sobre eleições. O CEO da Apple, Tim Cook, também admitiu que a tecnologia inteligente da Apple não está imune a problemas de alucinação. Recentemente, a ferramenta de transcrição de áudio "Whisper" da OpenAI também foi descoberta como tendo alucinações frequentes, levantando preocupações sobre seu uso em hospitais americanos.

Apesar da prevalência do problema das alucinações de IA, a demanda das grandes empresas de tecnologia por centros de dados de IA permanece forte, com empresas como Google, Microsoft e Meta considerando a energia nuclear como uma possível solução para atender à alta demanda de energia da IA.

Destaques:

🔍 A Microsoft solicitou uma nova patente para reduzir informações falsas geradas por IA.

🤖 O cerne da patente é a introdução de um Sistema de Aprimoramento de Resposta para modelos de IA, que extrai automaticamente mais informações.

⚡ Apesar dos graves problemas de alucinação de IA, a demanda das empresas de tecnologia por centros de dados de IA continua forte.