LongLLaMA

長文処理に対応した大規模言語モデル

一般製品プログラミング言語モデル自然言語処理
LongLLaMAは、長文を処理できる大規模言語モデルです。OpenLLaMAをベースに、Focused Transformer (FoT)手法を用いてファインチューニングされています。最大256kトークン以上のテキストを処理可能です。本モデルは、比較的軽量な3Bパラメータのベースモデル(指示調整なし)と、Hugging Face上で長文コンテキスト推論に対応したコードを提供しています。既存実装におけるLLaMAの代替として(最大2048トークンの短文コンテキスト向け)、モデルウェイトをご利用いただけます。また、評価結果と元のOpenLLaMAモデルとの比較結果も公開しています。
ウェブサイトを開く

LongLLaMA 最新のトラフィック状況

月間総訪問数

474564576

直帰率

36.20%

平均ページ/訪問

6.1

平均訪問時間

00:06:34

LongLLaMA 訪問数の傾向

LongLLaMA 訪問地理的分布

LongLLaMA トラフィックソース

LongLLaMA 代替品