O SLM_Survey é um projeto de pesquisa focado em modelos de linguagem de pequeno porte (SLMs), com o objetivo de fornecer um entendimento profundo e uma avaliação técnica desses modelos por meio de pesquisas e medições. O projeto abrange modelos de linguagem baseados em Transformer e apenas decodificadores, com uma faixa de parâmetros entre 100M e 5B. Por meio da pesquisa de 59 SLMs de código aberto de última geração, analisamos suas inovações técnicas e avaliamos suas capacidades em diversas áreas, incluindo raciocínio de senso comum, aprendizagem em contexto, matemática e programação. Além disso, realizamos testes de benchmark de seu custo de tempo de execução, incluindo latência de inferência e uso de memória. Essas pesquisas são de grande valor para impulsionar a pesquisa na área de SLMs.