WebLLM
高性能ブラウザ内言語モデル推論エンジン
一般製品生産性ブラウザ言語モデル
WebLLMは、WebGPUによるハードウェアアクセラレーションを活用した、高性能なブラウザ内言語モデル推論エンジンです。強力な言語モデル操作をサーバーサイド処理なしで、ウェブブラウザ内で直接実行できます。このプロジェクトは、大規模言語モデル(LLM)をクライアント側に直接統合することで、コスト削減、パーソナライズの強化、プライバシー保護を実現することを目指しています。Llama、Phi、Gemma、RedPajama、Mistral、Qwenなど、様々なモデルに対応し、OpenAI APIとの互換性も備えているため、プロジェクトへの統合が容易です。リアルタイムインタラクションとストリーミング処理をサポートしており、パーソナライズされたAIアシスタント構築に最適です。
WebLLM 最新のトラフィック状況
月間総訪問数
11197
直帰率
67.10%
平均ページ/訪問
1.9
平均訪問時間
00:01:26