WebLLM

高性能ブラウザ内言語モデル推論エンジン

一般製品生産性ブラウザ言語モデル
WebLLMは、WebGPUによるハードウェアアクセラレーションを活用した、高性能なブラウザ内言語モデル推論エンジンです。強力な言語モデル操作をサーバーサイド処理なしで、ウェブブラウザ内で直接実行できます。このプロジェクトは、大規模言語モデル(LLM)をクライアント側に直接統合することで、コスト削減、パーソナライズの強化、プライバシー保護を実現することを目指しています。Llama、Phi、Gemma、RedPajama、Mistral、Qwenなど、様々なモデルに対応し、OpenAI APIとの互換性も備えているため、プロジェクトへの統合が容易です。リアルタイムインタラクションとストリーミング処理をサポートしており、パーソナライズされたAIアシスタント構築に最適です。
ウェブサイトを開く

WebLLM 最新のトラフィック状況

月間総訪問数

11197

直帰率

67.10%

平均ページ/訪問

1.9

平均訪問時間

00:01:26

WebLLM 訪問数の傾向

WebLLM 訪問地理的分布

WebLLM トラフィックソース

WebLLM 代替品