Pesquisadores da Universidade de Stanford treinaram um grande modelo de linguagem usando dados da Wikipédia, chamado WikiChat. Através de otimizações e melhorias, eles conseguiram resolver com sucesso o problema de alucinações em grandes modelos de linguagem, apresentando excelente precisão factual e desempenho em outros indicadores. Seu melhor desempenho superou o GPT-4 e mostrou-se superior a outros modelos em vários aspectos.