O OLMo 2 é o mais recente modelo de linguagem totalmente aberto lançado pela Ai2, disponível em dois tamanhos: 7B e 13B, treinado com até 5 trilhões de tokens. Esses modelos apresentam desempenho igual ou superior a modelos totalmente abertos de tamanho comparável, competindo com modelos de pesos abertos como o Llama 3.1 em benchmarks acadêmicos em inglês. O desenvolvimento do OLMo 2 priorizou a estabilidade do treinamento do modelo, intervenções de treinamento em estágios, métodos de pós-treinamento de última geração e um framework de avaliação operacional. A aplicação dessas tecnologias permitiu que o OLMo 2 se destacasse em várias tarefas, especialmente em recuperação de conhecimento, senso comum e raciocínio geral e matemático.