最近AI関連の企業の株価は米国のさまざまな循環資金調達の影響で、
リターンが見えない高額投資やグローバル市場の流動性不足により大きな打撃を受けている。
CSP大手企業は減価償却に切り替え、
キャッシュフロー、
資本支出と収益の比率はすでにかなり高くなっていることは去年の中頃に指摘したが、
当時市場は無視してAIへの投資を続け、
今また熱く議論されている。
その核心的な理由は当時と全く同じで、
資本支出に見合った収益やヒットアプリが見えていない点だ。
要するに、市場が考えるバブルの正体は投資コストが高すぎることだ。
しかし今の状況では、誰も本当にAIへの投資をやめることはできない。
資本支出の破裂やヒットアプリの出現時期を空想的に予測するよりも、
むしろ現在の業界の動向を研究し、
AIの「バブル」問題を解決する方が良い。
どうやって解決するか、
答えはコスト削減だ。
どんな技術の発展も、その単位コストが絶えず下がることが必須で、
そうでなければ普及しない。
携帯電話から小型通信端末、そしてスマートフォンへと、
インターネットからモバイルインターネットへと、
この流れはずっと続いてきた。
では、現在のAIの最大の困難は何かというと、資本支出の高さと電力不足だ。
これに対応するのはGPUの価格が高すぎることと、
電力消費が過剰なことだ。
この問題を解決するための二つの道筋は以下の通り:
一、
計算カードのシステムコスト削減
(1)自社開発チップ、
代表例はGoogleだ。
GoogleはAppleと同じく資金に余裕があり、
エコシステムの閉鎖性、
ソフトとハードの両面を兼ね備えた六角形の戦士であり、
当然ながらバ老爺の最後の投資となった。
以下の表からもわかるように、GoogleのTPU7の構成はかなり優れており、
2枚の能力は基本的にB300に相当する。
しかし価格で考えると、
B300を1枚買えば、TPU7を4枚作れる見込みだ。
そのため、2026年のTPU出荷目標は既に400万枚に達しており、
これは予測されていた2026年のRubin出荷量にほぼ追いついている。
産業への影響は、
汎用GPUと自社開発カードの長期的な市場比率が1:1に近づけば、
同じ資本支出で、
約1.5倍以上の計算能力とストレージ容量を実現できることだ。
光モジュールなどの付属製品も同じ理屈で、
カードの増加は付属品の需要増加を意味する。
(この部分は私が9月7日に書いたもので、
ちょうどこのストレージ爆発前の内容。
詳細は当時の内容を参照してください。)
(2)従来のGPUを推論用と深層学習用の2種類の構成カードに分割し、
高低のメモリ構成を採用する。
NVIDIAのRubin+CPXの組み合わせや昇腾シリーズの950pr+950drはその例だ。
論理部分には同じチップを使えるが、
メモリの構成を変えることでコストを削減。
例えば、288GのHBM4のコストはすでに驚くべき3万元以上だが、
288GのGDDR7なら約1万5千円程度。
テキスト前処理の軽量化により推論カードのコストを大幅に削減でき、
より多くのカードを推論用に展開できる。
昇腾950prは国内の革新的な非従来型HBM高帯域幅推論カード方案で、
正式リリース前のため公開討議には適さないが、
業界内では何か推測できるだろう。
二、
サーバーの消費電力削減
今週のニュースでも既に触れられているが、
AIサーバーの電力消費を抑えるために、
NVIDIAは最近、サーバー用メモリを従来のDDR5(第5世代ダブルデータレート同期ダイナミックRAM)から、
LPDDR5Xに変更することを決定した。
これは多くのフラッグシップスマートフォンでも採用されているメモリだ。
国内のAIチップの省電力化については、
Qualcommと同様に、
NVIDIAよりもさらに積極的に取り組んでおり、
CPUのストレージにLPDDRを使って省電力化を進めている。
我々はGPUのストレージに直接目を向けている。
詳細は控えるが、
理解してもらえれば幸いだ。
さらに、サーバーの空冷から液冷への切り替えも当然行われており、
これも省エネの重要ポイントだ。
要するに、
産業界では多くの構造的変革が起きつつあり、
これらの要素は今後の大きなチャンスとなる。
ストレージについても今週はかなり厳しい状況で、
一つは流動性の問題、
もう一つはメモリの大規模増産だ。
まず、SKハイニックスとサムスンの新規増産能力はそれぞれM15Xと平沢P4だけで、
他は既存のDDR4/LPDDR5の生産能力の転用に過ぎない。
実質的には新規増産とは言えず、
タイトルの「XX増産8倍」などは文字遊びに過ぎない。
一つは、先進的な1Cプロセスの基数が小さかったこと、
二つ目は、5割以上が既存の生産能力のアップグレードに過ぎず、
実際の総量増加は限定的だ。
また、この増産は少なくとも2026年下半期以降に実現し、
一部は2027〜28年の先物契約となる見込み。
装置の導入は市場の需要に合わせて調整可能だ。
DRAM価格は比較的高値で推移し続け、
販売を拡大して需要を満たすことが、
ストレージメーカーがやるべきことだ。
長期的な高マージンを確保しつつ、
量と価格をともに増やすことが重要だ。
DRAMはSamsung、Micron、SKハイニックスの三大メーカーが支配しており、
韓国メーカー二社は何らかの調整をしているとも噂されている。
また、注意すべきは、
現物価格はあくまでスポット価格であり、
メーカーの供給は契約価格であること。
スポット価格が半減しても、
メーカーの契約価格は依然として現物価格の50%以下だ。
HBMから一般ストレージへの拡大により、
AI事業の比率は大きく上昇し、
ストレージメーカーの量と価格の両方が増加する「光モジュールの時代」が到来している。
米国の銀行も現状の苦境を記したレポートを出しており、
買い手の内部意見は大きく分かれている。
買い手のリサーチャーはストレージを好意的に見ているが、
ファンドマネージャーは買い手側のリスクを恐れている。
要するに、業界に詳しい者は問題ないと考えているが、
資金を管理する側は懸念を抱いており、
二次市場の底打ちを待って再投資するしかない状況だ。
9.84M 人気度
10.17K 人気度
109.79K 人気度
30.68K 人気度
1.58M 人気度
現在、AI「バブル」をどう打破するか?-安全で信頼できる暗号資産取引所プラットフォーム
最近AI関連の企業の株価は米国のさまざまな循環資金調達の影響で、
リターンが見えない高額投資やグローバル市場の流動性不足により大きな打撃を受けている。
CSP大手企業は減価償却に切り替え、
キャッシュフロー、
資本支出と収益の比率はすでにかなり高くなっていることは去年の中頃に指摘したが、
当時市場は無視してAIへの投資を続け、
今また熱く議論されている。
その核心的な理由は当時と全く同じで、
資本支出に見合った収益やヒットアプリが見えていない点だ。
要するに、市場が考えるバブルの正体は投資コストが高すぎることだ。
しかし今の状況では、誰も本当にAIへの投資をやめることはできない。
資本支出の破裂やヒットアプリの出現時期を空想的に予測するよりも、
むしろ現在の業界の動向を研究し、
AIの「バブル」問題を解決する方が良い。
どうやって解決するか、
答えはコスト削減だ。
どんな技術の発展も、その単位コストが絶えず下がることが必須で、
そうでなければ普及しない。
携帯電話から小型通信端末、そしてスマートフォンへと、
インターネットからモバイルインターネットへと、
この流れはずっと続いてきた。
では、現在のAIの最大の困難は何かというと、資本支出の高さと電力不足だ。
これに対応するのはGPUの価格が高すぎることと、
電力消費が過剰なことだ。
この問題を解決するための二つの道筋は以下の通り:
一、
計算カードのシステムコスト削減
(1)自社開発チップ、
代表例はGoogleだ。
GoogleはAppleと同じく資金に余裕があり、
エコシステムの閉鎖性、
ソフトとハードの両面を兼ね備えた六角形の戦士であり、
当然ながらバ老爺の最後の投資となった。
以下の表からもわかるように、GoogleのTPU7の構成はかなり優れており、
2枚の能力は基本的にB300に相当する。
しかし価格で考えると、
B300を1枚買えば、TPU7を4枚作れる見込みだ。
そのため、2026年のTPU出荷目標は既に400万枚に達しており、
これは予測されていた2026年のRubin出荷量にほぼ追いついている。
産業への影響は、
汎用GPUと自社開発カードの長期的な市場比率が1:1に近づけば、
同じ資本支出で、
約1.5倍以上の計算能力とストレージ容量を実現できることだ。
光モジュールなどの付属製品も同じ理屈で、
カードの増加は付属品の需要増加を意味する。
(この部分は私が9月7日に書いたもので、
ちょうどこのストレージ爆発前の内容。
詳細は当時の内容を参照してください。)
(2)従来のGPUを推論用と深層学習用の2種類の構成カードに分割し、
高低のメモリ構成を採用する。
NVIDIAのRubin+CPXの組み合わせや昇腾シリーズの950pr+950drはその例だ。
論理部分には同じチップを使えるが、
メモリの構成を変えることでコストを削減。
例えば、288GのHBM4のコストはすでに驚くべき3万元以上だが、
288GのGDDR7なら約1万5千円程度。
テキスト前処理の軽量化により推論カードのコストを大幅に削減でき、
より多くのカードを推論用に展開できる。
昇腾950prは国内の革新的な非従来型HBM高帯域幅推論カード方案で、
正式リリース前のため公開討議には適さないが、
業界内では何か推測できるだろう。
二、
サーバーの消費電力削減
今週のニュースでも既に触れられているが、
AIサーバーの電力消費を抑えるために、
NVIDIAは最近、サーバー用メモリを従来のDDR5(第5世代ダブルデータレート同期ダイナミックRAM)から、
LPDDR5Xに変更することを決定した。
これは多くのフラッグシップスマートフォンでも採用されているメモリだ。
国内のAIチップの省電力化については、
Qualcommと同様に、
NVIDIAよりもさらに積極的に取り組んでおり、
CPUのストレージにLPDDRを使って省電力化を進めている。
我々はGPUのストレージに直接目を向けている。
詳細は控えるが、
理解してもらえれば幸いだ。
さらに、サーバーの空冷から液冷への切り替えも当然行われており、
これも省エネの重要ポイントだ。
要するに、
産業界では多くの構造的変革が起きつつあり、
これらの要素は今後の大きなチャンスとなる。
ストレージについても今週はかなり厳しい状況で、
一つは流動性の問題、
もう一つはメモリの大規模増産だ。
まず、SKハイニックスとサムスンの新規増産能力はそれぞれM15Xと平沢P4だけで、
他は既存のDDR4/LPDDR5の生産能力の転用に過ぎない。
実質的には新規増産とは言えず、
タイトルの「XX増産8倍」などは文字遊びに過ぎない。
一つは、先進的な1Cプロセスの基数が小さかったこと、
二つ目は、5割以上が既存の生産能力のアップグレードに過ぎず、
実際の総量増加は限定的だ。
また、この増産は少なくとも2026年下半期以降に実現し、
一部は2027〜28年の先物契約となる見込み。
装置の導入は市場の需要に合わせて調整可能だ。
DRAM価格は比較的高値で推移し続け、
販売を拡大して需要を満たすことが、
ストレージメーカーがやるべきことだ。
長期的な高マージンを確保しつつ、
量と価格をともに増やすことが重要だ。
DRAMはSamsung、Micron、SKハイニックスの三大メーカーが支配しており、
韓国メーカー二社は何らかの調整をしているとも噂されている。
また、注意すべきは、
現物価格はあくまでスポット価格であり、
メーカーの供給は契約価格であること。
スポット価格が半減しても、
メーカーの契約価格は依然として現物価格の50%以下だ。
HBMから一般ストレージへの拡大により、
AI事業の比率は大きく上昇し、
ストレージメーカーの量と価格の両方が増加する「光モジュールの時代」が到来している。
米国の銀行も現状の苦境を記したレポートを出しており、
買い手の内部意見は大きく分かれている。
買い手のリサーチャーはストレージを好意的に見ているが、
ファンドマネージャーは買い手側のリスクを恐れている。
要するに、業界に詳しい者は問題ないと考えているが、
資金を管理する側は懸念を抱いており、
二次市場の底打ちを待って再投資するしかない状況だ。