報道によると、NVIDIAのH100 GPUの供給期間が大幅に短縮され、3~4ヶ月になったことで、一部企業が余剰プロセッサの転売を開始しています。供給が改善されたとはいえ、特に大規模言語モデルのトレーニングを行う企業を中心に、AIチップの需要は供給を上回っています。クラウドサービスプロバイダーによるレンタルサービスが需要圧力を軽減していますが、依然として供給のボトルネックが存在します。企業は価格と調達の合理性を重視しており、AI分野では市場のバランスがとれる可能性があります。
報道によると、NVIDIAのH100 GPUの供給期間が大幅に短縮され、3~4ヶ月になったことで、一部企業が余剰プロセッサの転売を開始しています。供給が改善されたとはいえ、特に大規模言語モデルのトレーニングを行う企業を中心に、AIチップの需要は供給を上回っています。クラウドサービスプロバイダーによるレンタルサービスが需要圧力を軽減していますが、依然として供給のボトルネックが存在します。企業は価格と調達の合理性を重視しており、AI分野では市場のバランスがとれる可能性があります。
人工知能の急速な発展を背景に、AI大規模言語モデルの研究開発と応用は活況を呈しています。最近、この分野における複数の企業や機関の最新動向が広く注目を集めています。まず、ChatGPTが登場する前のNVIDIAの時価総額倍率はウォール街で大きな注目を集め、専門家らは、これが2008年のアップルの成功神話を再現する兆候かもしれないと考えています。同時に、国泰君安の最高情報責任者である俞楓氏は、AI大規模言語モデルの台頭により証券業界が「インテリジェント認知」時代に入るだろうと述べています。