AIインフラ市場で推論モデルとエージェントシステムの普及が進み、GPU需要が急増しています。従来型モデルに対し、より高品質なアウトプットが期待され、処理データ量も増加しています。
従来のGPT-4モデルに比べ、推論モデルは複雑な問題を解決する能力が向上し、より高品質なアウトプットを提供します。
具体的には、OpenAIのo3-miniやDeepSeekのR1などの推論モデルがその例です。
これらは、ユーザーの質問に対して、何度も推敲を重ねることで、より深い回答を生成します。
その結果、推論モデルやエージェントシステムの利用が増加し、処理するデータ量も大幅に増加します。
これに伴い、AIインフラへの負荷が高まり、GPUの需要も急増しています。
NVIDIAのCEO、ジェンセン・フアンは、同社のカンファレンスで、メタのLlamaモデルとDeepSeekのR1モデルを比較するデモを行い、推論モデルの優位性を示しました。
Llamaは即座に回答を生成しましたが、内容に誤りがありました。
一方、R1は慎重に推論を行い、正確な座席配置を導き出しましたが、トークン数はLlamaの20倍に達しました。
このように、推論モデルはエージェントシステムに組み込まれ、問題解決においても効率的です。
フアンCEOは、推論モデルやエージェントシステムの応答時間を既存モデルと同等に保つためには、処理速度を10倍にする必要があり、最終的には処理データ量が100倍に増加すると指摘しました。
NVIDIAの出荷実績もこの需要の高まりを裏付けており、最新のBlackwellチップは初年度で360万台の出荷が見込まれています。
これに対し、旧モデルのHopper GPUは130万台の出荷にとどまっており、AIインフラ市場の変化がGPU需要を押し上げていることが明らかです。
参考リンクhttps://news.yahoo.co.jp/articles/bf3e5a434399c8942a695ec7da5885e05d160eb3
AIインフラ市場の変化とGPU需要の急増に関するコメントでは、様々な視点からの意見が寄せられていました。
まず、GPU自体の微細化や低消費電力化が進まない中で、規模を拡大する方法に対して疑問が呈されていました。
特に、電力と設備の爆増による対処がコストパフォーマンスの面で問題視され、実用に耐えなくなる可能性が指摘されていました。
また、NVIDIAのGPUが消費電力の高さから不具合を引き起こし、ゲーム業界で物議を醸しているという意見もありました。
さらに、推論型モデルの需要が高まっている一方で、GPUの売上が株価に反映されていないことに対する疑問も見受けられました。
推論技術は非常に優れているものの、そのコストや速度に関しては課題が残っているとの意見もありました。
人間よりも安価で速く、客観的かつ高品質な結果を提供できる点が評価されている一方で、実際の運用には時間とコストがかかることが懸念されていました。
最後に、冷却や電力、水不足などの問題に対して、決算の数字だけを求める現行の大量消費路線を改める必要があるとの意見が強調されていました。
このままでは市場が崩壊する可能性があるため、持続可能なアプローチが求められています。
AIの運用においても、環境への配慮が必要とされているという意見が多く、今後の方向性に影響を与える可能性があると考えられました。
ネットコメントを一部抜粋
GPU自体の微細化、低消費電力化が進まないのに規模だけ拡大して電力と設備の爆増で対処しようとするのは間違い。
間違ってる回答が即座に帰って来ても意味がないから、やはりDeepSeekのような推論型のモデルを使いたい。
推論は本当に凄いんだけど、高価で遅いんだよね。
冷却や電力、水不足の問題に対して決算の数字だけ求めて現行の大量消費路線を改めなければいずれ崩壊する市場となる。
AI「AI走らすためのコンピュータ止める事です」とはならないのか。