本日、マスク氏はX(旧Twitter)上で、自身のAIスタートアップ企業xAIの最新情報について発表しました。マスク氏によると、同社が開発した大規模言語モデル「Grok-2」が、8月に正式公開されるということです。
この発表は、現在のLLM(大規模言語モデル)の訓練方法に関する投稿への返信の中で行われました。ユーザーのBef-e/acc氏は、モデル同士が互いのデータで訓練される「人体蜈蚣(じんたいごちょう)効果」について言及し、この訓練方法が引き起こす可能性のある連鎖反応と潜在的なリスクを指摘していました。マスク氏はこれに対して、「残念ながら、その通りです。インターネットから訓練データにおけるLLMの影響を排除することは、非常に困難な作業です。」と認めました。
しかし、マスク氏は落胆していません。続けて、xAIの最新成果である大規模言語モデル「Grok-2」を発表しました。8月に公開予定のこのモデルは、上記の問題点において著しい進歩を遂げるとマスク氏は述べており、xAIの技術的飛躍を期待する人々にとって朗報と言えるでしょう。
xAIのこれまでの歩みを振り返ると、今年3月と4月には、大規模言語モデル「Grok-1.5」と、初のマルチモーダルモデル「Grok-1.5Vision」を相次いで発表しています。xAIは、Grok-1.5Vが、多学科的推論、文書理解、科学図表、表処理、スクリーンショット、写真など、複数の分野において、既存の最先端マルチモーダルモデルに匹敵する性能を持つと自負していました。