Recentemente, o Tencent AI Lab, em conjunto com várias instituições acadêmicas nacionais e internacionais, publicou um artigo de revisão sobre o problema de alucinações em grandes modelos de linguagem. A pesquisa mostra que, em comparação com modelos tradicionais, a avaliação de alucinações em grandes modelos enfrenta novos desafios, como grande escala de dados, alta generalidade e dificuldade de detecção. Para reduzir as alucinações, intervenções podem ser feitas em várias etapas, incluindo pré-treinamento, ajuste fino e aprendizado por reforço. No entanto, ainda é necessário pesquisar métodos de avaliação confiáveis para promover a aplicação prática de grandes modelos de linguagem.
Laboratório de IA da Tencent publica revisão sobre problemas de alucinação em modelos grandes

站长之家
109
© Todos os direitos reservados AIbase Base 2024, clique para ver a fonte - https://www.aibase.com/pt/news/1343