Stable Code 3B é um modelo de linguagem de decodificador somente com 2,7 bilhões de parâmetros, pré-treinado em 130 bilhões de tokens de dados de texto e código diversos. O Stable Code 3B foi treinado em 18 linguagens de programação e, quando testado usando as ferramentas de avaliação do BigCode, demonstrou desempenho de ponta em várias linguagens de programação em comparação com modelos de tamanho semelhante. Ele suporta contexto longo, tendo sido treinado em sequências de até 16384 tokens e possui a funcionalidade de preenchimento intermediário (FIM). Os usuários podem começar a gerar texto com o Stable Code 3B usando snippets de código disponíveis no site Hugging Face. O modelo foi desenvolvido pela Stability AI, baseado na biblioteca GPT-NeoX, e pode ser usado para inglês e linguagens de programação.