O MLGym é uma estrutura e benchmark de código aberto desenvolvida pelas equipes GenAI do Meta e UCSB NLP para treinar e avaliar agentes de pesquisa de IA. Ao fornecer diversas tarefas de pesquisa de IA, ele impulsiona o desenvolvimento de algoritmos de aprendizado por reforço, ajudando os pesquisadores a treinar e avaliar modelos em cenários de pesquisa do mundo real. A estrutura suporta várias tarefas, incluindo áreas como visão computacional, processamento de linguagem natural e aprendizado por reforço, visando fornecer uma plataforma de teste padronizada para pesquisa em IA.