Stable Code 3B es un modelo de lenguaje de solo decodificador con 2.700 millones de parámetros, preentrenado en 130 000 millones de tokens de datos de texto y código diversos. Stable Code 3B se entrenó en 18 lenguajes de programación y, al ser probado con las herramientas de evaluación de BigCode, mostró un rendimiento de vanguardia en múltiples lenguajes de programación en comparación con modelos de tamaño similar. Admite contextos largos, se entrenó con secuencias de hasta 16384 de longitud e incluye la función de relleno intermedio (FIM). Los usuarios pueden empezar a generar texto con Stable Code 3B usando fragmentos de código disponibles en el sitio web de Hugging Face. Desarrollado por Stability AI y basado en la biblioteca GPT-NeoX, es utilizable para inglés y lenguajes de programación.