MoE 8x7B

Mistral AIの新8x7B混合専門家(MoE)ベースモデルで、テキスト生成に使用されます。

一般製品執筆テキスト生成混合専門家
Mistral AIの新8x7B混合専門家(MoE)ベースモデルは、テキスト生成に使用されます。混合専門家アーキテクチャを採用し、高品質のテキスト生成を実現します。様々なテキスト生成タスクに適用可能で、高品質なテキスト生成が可能です。価格は使用状況に応じて変動します。詳細は公式ウェブサイトをご確認ください。本モデルはテキスト生成における課題解決を目指しています。
ウェブサイトを開く

MoE 8x7B 最新のトラフィック状況

月間総訪問数

1545596

直帰率

34.62%

平均ページ/訪問

7.0

平均訪問時間

00:06:23

MoE 8x7B 訪問数の傾向

MoE 8x7B 訪問地理的分布

MoE 8x7B トラフィックソース

MoE 8x7B 代替品