Este artigo discute os dez principais desafios na pesquisa de modelos de linguagem grandes (LLMs), incluindo a redução e medição de alucinações, otimização do comprimento e construção do contexto, integração de outras modalidades de dados, aumento da velocidade e redução do custo dos LLMs, design de novas arquiteturas de modelos, desenvolvimento de alternativas à GPU, melhoria da usabilidade de agentes, aprimoramento da capacidade de aprendizado a partir de preferências humanas, aumento da eficiência da interface de bate-papo e construção de LLMs para idiomas diferentes do inglês. Entre eles, a redução de alucinações e o aprendizado de contexto são provavelmente as duas áreas mais populares atualmente. Multimodalidade, novas arquiteturas e alternativas à GPU também possuem um enorme potencial. Em geral, a pesquisa de LLMs está em rápido desenvolvimento, com explorações vigorosas em várias frentes.