Stable Code 3Bは、27億のパラメータを持つデコーダー専用の言語モデルです。1300億個以上の多様なテキストとコードデータトークンで事前学習されており、18種類のプログラミング言語でトレーニングされています。BigCodeの評価ツールを用いたテストでは、同規模のモデルと比較して、複数のプログラミング言語において最先端の性能を示しました。最大16384の長さのシーケンスを用いたトレーニングによりロングコンテキストをサポートし、Fill-in-the-Middle(FIM)機能を備えています。Hugging Faceウェブサイト上のコードスニペットから、Stable Code 3Bによるテキスト生成を始めることができます。Stability AIによって開発され、GPT-NeoXライブラリを基盤としており、英語とプログラミング言語に対応しています。