ja
AI製品ランキング
每月不到10元,就可以无限制地访问最好的AIbase。立即成为会员
ホーム
AIニュース
AIデイリー
マネタイズガイド
AIチュートリアル
AIツールナビ
AI製品ライブラリ
ja
AI製品ランキング
グローバルAI製品の動向を検索
グローバルAI情報を検索して、AIの新しい機会を発見
ニュース
製品アプリケーション
マネタイズ事例
AIチュートリアル
タイプ :
ニュース
製品アプリケーション
マネタイズ事例
AIチュートリアル
2025-02-05 14:32:07
.
AIbase
.
15.1k
国家チーム参戦!DeepSeek全シリーズモデルが国家スパコンプラットフォームに導入
この度、DeepSeekが提供するDeepSeek-R1、V3、Coderなどの全シリーズ大規模モデルが、国家スパコンインターネットプラットフォーム(www.scnet.cn)に正式導入されました。国産超知能融合コンピューティングパワーと全国一体化コンピューティングサービスシステムのサポートにより、中国のAI大規模モデル産業は重要な一歩を踏み出しました。国家スパコンインターネットプラットフォームでは現在、DeepSeek-R1モデルの1.5B、7B、8B、14Bバージョンが利用可能で、ユーザーはQRコードまたはウェブインターフェースから直接オンライン推論を体験できます。
2024-08-28 11:29:28
.
AIbase
.
11.3k
Cerebras、Nvidiaの覇権に挑戦する「世界最速」AI推論サービスを発表
Cerebras Systems Inc.は、「世界最速」と謳うAI推論サービスを発表し、Nvidia Corp.の覇権に挑戦しています。このサービスは、AIタスクをより高速かつ低コストで実行することを目指しており、90万個以上の計算コアと44GBのメモリを搭載したWSE-3プロセッサをベースとしています。コア数はNvidia H100の52倍で、推論速度は毎秒1000トークンに達し、Nvidiaの同様のサービスと比較して20倍高速、100倍のコストパフォーマンスを実現すると主張しています。無料トライアルも提供されています。
2024-08-28 09:34:17
.
AIbase
.
11.3k
世界最速AI推論サービスが登場!速度20倍向上、コスト大幅削減
Cerebras SystemsがCerebras Inferenceを発表。世界最速のAI推論サービスと謳い、GPUベースの従来システムと比較して20倍の性能向上と大幅なコスト削減を実現。特に大規模言語モデル(LLM)の処理に最適です。8Bバージョンでは毎秒1800トークン、70Bバージョンでは毎秒450トークンを処理し、NVIDIA GPUソリューションをはるかに凌駕する速度とコスト効率を実現します。Cerebras Inferenceは…
2024-07-30 09:07:41
.
AIbase
.
10.7k
NVIDIAとHugging Face、高効率推論サービスを発表、AIモデルのトークン処理速度を5倍向上
Hugging FaceとNVIDIAは、NVIDIA NIMテクノロジーを活用した推論サービスを発表しました。このサービスにより、開発者はプロトタイプの作成とオープンソースAIモデルの効率的なデプロイを加速できます。Llama 2やMistral AIなどの強力なモデルを特にサポートしており、従来のデプロイ方法と比較して処理速度が5倍向上します。NVIDIA DGX Cloudを使用することで、開発者はモデルのトレーニングを行うことができます。また、Hugging Faceはチームの収益化と220名への拡大、そしてSmolLMの発表も発表しました。