微信検索がDeepSeek大規模言語モデルに対応、AIは朋友圈のチャット情報などを利用しないと発表

AIbase基地
205
© 著作権 AIbase基地 2024, 出典元はこちら - https://www.aibase.com/ja/news/15510
バイトダンス傘下の豆包大規模言語モデルチームは先日、混合専門家モデル(MoE)アーキテクチャにおける主要なボトルネックを克服し、COMETという名称の重要な最適化技術をオープンソース化したと発表しました。この技術は、大規模言語モデルのトレーニング効率を大幅に向上させ、最大1.7倍の効率向上を実現し、トレーニングコストを40%削減することに成功しました。画像注記:画像はAIによって生成され、画像ライセンス提供サービスMidjourneyを使用しています。COMET技術は、バイトダンスの万規模GPUクラスタトレーニングで実際に適用されており、数百万GPU時間の節約に貢献しています。
3月10日、智元ロボットは、初の汎用具象ベースの大規模言語モデルであるGenie Operator-1(GO-1と略称)を発表しました。この発表は大きな注目を集め、特に家庭用サービスロボットの可能性という点において、将来の家事管理に新たな希望をもたらすものとして期待されています。智元ロボットの公式発表によると、GO-1大規模言語モデルは大量の人間のビデオ学習を通じて、コップの水を運ぶ、食事を作る、客を迎えるなど、多くの家事タスクをこなす優れた能力を示しています。技術性能に関しては、
3月10日、百度文库傘下の橙篇アプリがDeepSeek-R1フルバージョンに正式対応し、ユーザーにより効率的で強力なAIアシスト機能を提供します。百度文库の膨大なコンテンツ蓄積とAI能力の蓄積を基盤とする橙篇は、今回のアップグレードにより、学習、生活、創作におけるユーザーの多様なニーズにより良く対応できるようになりました。