O Instituto de Inteligência Artificial de Pequim Zhiyuan e a Faculdade de Inteligência Artificial GaoLing da Universidade do Povo Chinês lançaram conjuntamente um inovador framework de modelo de inteligência artificial — MemoRAG. Este framework, baseado em memória de longo prazo, visa impulsionar o desenvolvimento da tecnologia de geração aprimorada por recuperação (RAG), permitindo-lhe lidar com tarefas mais complexas, não se limitando a simples perguntas e respostas.
O MemoRAG adota um modelo inovador, através de um processo de “geração de pistas baseadas em memória — obtenção de informações guiadas por pistas — geração de conteúdo baseado em fragmentos recuperados”, alcançando a capacidade de obter informações com precisão em cenários complexos. Esta tecnologia é particularmente adequada para tarefas em áreas intensivas em conhecimento, como justiça, medicina, educação e código, demonstrando um potencial enorme.
A principal vantagem do MemoRAG reside em sua capacidade de memória global, podendo processar dados de um único contexto com até um milhão de palavras, fornecendo um suporte robusto para o processamento de grandes quantidades de dados. Além disso, o MemoRAG possui alta otimizabilidade e flexibilidade, adaptando-se rapidamente a novas tarefas e otimizando seu desempenho. Ele também pode gerar pistas de contexto precisas a partir da memória global, aumentando a precisão da resposta a perguntas e explorando insights mais profundos nos dados.
Para apoiar pesquisas e aplicações futuras do MemoRAG, a equipe do projeto disponibilizou dois modelos de memória em código aberto, juntamente com um guia de uso e resultados experimentais. Os experimentos mostraram que o MemoRAG superou os modelos de referência em vários testes de benchmark. O Instituto Zhiyuan afirma que, embora o projeto MemoRAG ainda esteja em estágio inicial, espera receber feedback da comunidade e continuará otimizando a leveza do modelo, a diversidade de mecanismos de memória e seu desempenho em corpus em chinês.
Relatório Técnico:https://arxiv.org/pdf/2409.05591