Metaは、大規模言語モデルLlama-3のトレーニング専用に設計された、2つの24K H100 GPUクラスタを公式ウェブサイトで発表しました。Llama-3は、RoCEv2ネットワークとTectonic/HammerspaceのNFS/FUSEネットワークストレージを採用しています。4月末から5月中旬にかけての公開が予定されており、マルチモーダルモデルとなり、引き続きオープンソースとして提供される可能性があります。Metaは、2024年末までに60万個のH100の計算能力を保有する計画です。
Meta、Llama-3のトレーニング向けに24,000個のH100 GPUを搭載した2つのクラスターを発表

AIGC 开放社区
この記事はAIbaseデイリーからのものです
【AIデイリー】へようこそ!ここは、毎日人工知能の世界を探求するためのガイドです。毎日、開発者に焦点を当て、技術トレンドを洞察し、革新的なAI製品アプリケーションを理解するのに役立つ、AI分野のホットなコンテンツをお届けします。