アマゾン、巨大言語モデル「Olympus」を開発中

ウェブサイト運営者向け情報サイト「站长之家」の11月9日付ニュースによると、アマゾンは「Olympus」というコードネームの大規模言語モデルを秘密裏に開発中です。そのパラメーター数は驚異的な2兆個に達し、OpenAIが最近発表したGPT-4の2倍にもなります。

これにより、Olympusは現在公開されているモデルの中でパラメーター数が最も多いものの1つとなるでしょう。アマゾンはクラウドコンピューティング分野で強力な基盤を持っており、Olympusを通じてAI分野で大きな波を起こす可能性を秘めています。

しかし、モデルの優劣はパラメーター数だけでは決まりません。モデルの構造設計とトレーニングデータの質が重要です。現時点では、Olympusの詳細やアマゾンの発表時期は不明です。業界は引き続きその動向に注目しています。