1. エージェンティックAIがサーバーCPU市場の構図を塗り替える——AMD・ARM・インテルのTAM再編
• 原文の核心
「サーバーCPU TAMがわずか数ヶ月で600億ドルから1,200億ドルへ2倍に引き上げられた根拠は?クラウドおよびエンタープライズ顧客との長期需要計画協議で実需の急増を確認。推論からエージェンティックAIへの転換時、CPUがオーケストレーション・データ処理・並列実行を全面的に担う。CPU:GPU比率が1:4〜8から1:1以上に再編中。」
「サーバーCPU TAM見通しを大幅上方修正:推論・エージェンティックAIの普及がCPUオーケストレーション需要の爆発的増加を引き起こす。サーバーCPU TAM年間成長率を18%から35%+に引き上げ、2030年の市場規模は1,200億ドル超と予測。」
「EPYC サーバーCPU——4四半期連続で過去最高を更新:クラウド・エンタープライズともにYoY+50%+。エージェンティックデプロイメントでは一般的にユーザーあたりおよびGPU/XPUあたりのCPUコア数が約3〜5倍増加。」
「2Q CPUの収益成長率70%超のガイダンスを提示。サーバー及びAI需要が引き続き力強く維持されているシグナル。」
• 期待効果
エージェンティックAIとは、単純な質問への回答を超えて、自律的に計画を立て、複数のツールを呼び出し、複雑なタスクを自律実行するAIシステムを指す。この転換が半導体業界の構図を根本から塗り替えつつある。
既存のAIインフラはGPU中心に設計されていた。GPUが大規模演算を処理する一方、CPUは補助的な役割にとどまり、GPU 1基あたりのCPUコア比率は1:4〜8程度だった。しかしエージェンティックAIへの転換により、この構造が逆転しつつある。エージェントは複数のツールを並列呼び出し、結果を検証し、エラーを修正するプロセスを繰り返す——このオーケストレーション作業がすべてCPUに集中する。UBSはエージェンティックデプロイメントにより、GPU/XPUあたりの必要CPUコア数が従来比3〜5倍増加すると分析しており、AMDもCPU:GPU比率が1:1以上に再編されつつあると明言した。
その結果、AMDは2030年サーバーCPU市場規模の予測をわずか数ヶ月で600億ドルから1,200億ドルへ倍増させ、年平均成長率の見通しも18%から35%超へ大幅に引き上げた。AMDの1Q実績では、EPYC サーバーCPUが4四半期連続で過去最高を更新し、2Qガイダンスは前年比70%超の成長が示された。競争面では、UBSが低レイテンシ・高エネルギー効率を強みとするARM Holdingsを最大受益者に、AMDをマルチスレッドの強みを生かした次点受益者に位置づけた。エージェントがワークロードをPCにオフロードする流れは、エッジデバイスの仕様アップグレードサイクルを引き起こす可能性もあり、インテルとAMDの双方に追加恩恵が期待される。CPU市場は、GPUの単なる補助材からAIインフラの核心的ボトルネックへと再定義されつつある。
2. PalantirがAIプラットフォーム企業としての地位を固める——過去最高成長率とガイダンスの大幅上方修正
• 原文の核心
「1Q売上高16億3,300万ドル、前年比+85%、前四半期比+16%。米国売上高12億8,200万ドル、前年比+104%。商業部門売上高7億7,400万ドル、前年比+95%。11四半期連続加速成長継続中。」
「前四半期に85%の成長率を記録しモメンタムが急増しました。これは我々の歴史上最高の数値です。特に米国事業が2倍以上に拡大し、加速する米国市場への自信を背景に、年間売上成長率ガイダンスを前四半期比10ppポイント高い71%へ上方修正します。」
「PalantirのRule of 40スコアは145%に跳ね上がりました。この指標で圧倒的な成果を挙げており、これはNVIDIA・Micron・SK hynixのようなAIインフラ企業のみが達成した水準です。」
「FY26年間ガイダンスを6.5%引き上げ76.5億ドルへ上方修正。成長率を61%から71%へ調整。米国コマーシャル売上は『前年比120%以上成長』へ上方修正(従来115%)。」
• 期待効果
Palantirは今1Q実績を通じて、単純なソフトウェア企業を超え、企業・政府向けAIプラットフォームのコアインフラ企業としての地位を数字で証明した。
核心指標である**Rule of 40(成長率+営業利益率の合計)が145%**を記録した。ソフトウェア業界では40%を超えると優良企業と分類されるが、Palantirはこれを3倍以上超過し、NVIDIA・Micron・SK hynixなどのAIインフラハードウェア企業と同等の評価を受けている。米国コマーシャル部門の残存契約価値(RDV)は49億2,000万ドルで前年比+112%、総契約価値(TCV)24億1,000万ドル(前年比+61%)、顧客数1,007社(前年比+31%)など、受注指標も全方位的に強化された。
Palantirが注目される理由はAIモデル自体ではなく、AIを実際の企業・政府の意思決定に結びつけるOntologyおよびAIPプラットフォームの希少性にある。生成AIの普及とともに、エラー制御・ガバナンス・意思決定統合の需要が拡大しており、Palantirはこの領域で代替品のない独占的ポジションを占めている。米国政府部門売上が前年比76%成長へ再加速した点も注目に値し、防衛・安全保障予算内でのAIプラットフォームの構造的シェア拡大を反映したものと解釈される。年間調整後FCFガイダンス42億〜44億ドル、現金保有80億ドルという盤石な財務基盤は、この成長が過剰なコスト支出に依拠していないことを示している。
3. 光学接続(Optical Connectivity)がAIインフラの新たなボトルネックとして浮上——NVIDIA・Corningパートナーシップとデータセンターインターコネクト市場の爆発的成長
• 原文の核心
「Corningは米国内の光学接続製造能力を10倍に拡大する計画。Corningは米国内の光ファイバー生産能力を50%以上拡大する予定。Corningはノースカロライナ州とテキサス州に3つの新たな先進製造施設を建設する計画。今回の拡張により、3,000人以上の高賃金米国雇用が創出される見込み。」
「グローバルデータセンターインターコネクト市場は2025年の134億ドルから2030年には1,727億ドルへ、CAGR 67%で成長する見通し。」
「AIファクトリーが大きく、多くなるほど、光学接続がAIインフラの重要な構成要素となると説明。NVIDIAとCorningは、最新のAIワークロードが数千のNVIDIA GPUを必要とし、それに伴って高性能光ファイバー・接続機器・フォトニクスが必要だと説明。」
「EMLレーザーの供給-需要不均衡が30%以上に悪化しており、前四半期に言及した25〜30%の水準より深刻な見通しを提示。」
• 期待効果
AIインフラにおけるGPUの演算性能が爆発的に成長する一方で、データを運ぶ接続網が新たなボトルネックとして浮上している。数千のGPUで構成されるAIファクトリーでは、GPUどうし、そしてデータセンターどうしが超高速でデータをやり取りする必要があるが、従来の銅線ケーブルではこの速度に対応できない。その代替となるのが、光でデータを伝送する光学接続(Optical Connectivity)だ。
グローバルデータセンターインターコネクト市場は2025年の134億ドルから2030年の1,727億ドルへ、CAGR 67%で成長する見通しだ。これを反映し、NVIDIAは低損失光ファイバーを発明したCorningと多年間戦略パートナーシップを締結し、Corningは光学接続生産能力を10倍、光ファイバー生産能力を50%以上拡大する大規模投資を実施する。NVIDIAの供給網先占戦略は、LumentumやCoherentに続いてCorningにまで及び、長期契約で光学バリューチェーン全体を囲い込む方向へ進んでいる。一方、AIインフラにおけるGPU間(ラック内)接続(スケールアップ)に不可欠なEMLレーザーは供給-需要不均衡が30%超に深刻化しており、Lumentumなどの光学部品企業の収益性拡大がしばらく継続する見通しだ。NVIDIAがCPO(コパッケージドオプティクス)の商業化を2028年Feynmanプラットフォームへ前倒ししたことで、光学接続の需要は現在のデータセンターインターコネクトからGPUパッケージ内部へと構造的に拡張しており、新たな構造的成長局面に突入している。
4. AIファクトリー需要急増が構造的な電力不足を招く——データセンターCAPAの遅延と電力市場のタイト化
• 原文の核心
「米国データセンターの負荷は現在の約75GWから2030年までに135GW以上に増加し、約60GWの増分容量が発生する見通しで、このうち約70%がAIによって牽引される。」
「CAPA成長率<電力需要成長率→需給圧迫。データセンターの電力需要が市場均衡を決定する核心変数に転換。電力予備率低下→構造的タイト化が進行。」
「遅延を反映した後もCAPAは2026〜2027年に急激に増加。取消・遅延にもかかわらず総CAPAは最終的に大幅増加。需要は維持されるが供給タイミングのみが後ずれする構造。結果的に特定時点での供給不足深化の可能性が拡大。」
「ハイパースケーラーCapEx増加→約9%がWFEへ転移する構造。データセンター投資が1,000億ドル増加するとWFEは約80〜100億ドル増加。」
• 期待効果
AIデータセンターは電力を極めて集約的に消費する施設だ。米国データセンターの電力負荷は現在の約75GWから2030年には135GW以上に増加する見通しで、この増分の約70%がAIによって牽引される。問題は電力供給の増加ペースがデータセンター需要の増加ペースに追いつかないことだ。ゴールドマン・サックスの分析によれば、データセンターCAPAは遅延や取消が繰り返されているものの、構造的には2026〜2027年に非線形加速成長局面に突入しており、これにより特定時点での供給不足が深化する可能性が大幅に高まっている。
系統連系の遅延はすでに深刻なボトルネックとなっている。PJM(米国最大の送電網運営会社)は今後数年間、新規の系統連系を審査しない方針であり、5〜10年に及ぶ系統連系遅延がデータセンター建設の最大のボトルネックとして浮上している。これは単なる許認可の問題ではなく、AIインフラ投資全体の執行ペースを構造的に制約する根本的な要因だ。この流れから恩恵を受けるのは電力インフラ企業だ。供給が逼迫した地域のユーティリティ・発電会社は電力価格上昇の恩恵を受け、送配電・電力インフラ企業は遅延とは無関係に構造的需要増加の恩恵を享受する。Eaton(イートン)の1Q実績において、電力アメリカズ(EA)部門のデータセンター受注が前年比240%増を記録したことは、この実需の現れだ。AIファクトリーの規模が拡大するにつれ、電力インフラは半導体と同等の重要サプライチェーン変数として格上げされつつある。
5. DeepSeekが450億ドル評価額で初の外部資金調達——中国AIモデルの商業化元年と米国AI覇権への挑戦
• 原文の核心
「DeepSeekの企業価値は、数週間前の交渉初期段階の200億ドルから450億ドルへと急騰しました。中国最大の国家半導体投資機関である’ビッグファンド(国家集積回路産業投資基金)’がDeepSeekの初の外部資金調達をリードする方向で交渉中。」
「中国LLMのトークン使用市場シェアが1年で5%から32%へ急騰し、米国モデル(19%)を上回る地殻変動が発生。中国のエンジニアリング効率が米国の15〜20%水準である低推論コストを実現し、価格競争力に基づくAI普及の加速化。」
「DeepSeekは最新V4モデルがHuaweiのAscend 950PRチップに最適化されていると発表。HuaweiのAIチップ売上は、NVIDIAの製品輸入が米国の輸出規制で禁止された中国市場において、今年NVIDIAを追い越し急増している。」
「月間アクティブユーザー3億4,500万人、日間1,200兆トークンを消費するDoubaoは、高頻度ユーザーに演算コストを転嫁し始めた。Morgan Stanleyは楽観的なシナリオでDoubaoの年間サブスクリプション収益が15億ドルに達する可能性があると試算。」
• 期待効果
DeepSeekは米国競合他社と比べてはるかに少ない計算リソースで競争力あるAIモデルを開発し世界的な注目を集めたが、このたび企業価値が数週間で200億ドルから450億ドルへと急騰し、初の外部資金調達を進めている。投資をリードする中国の’ビッグファンド’は、国家半導体自立戦略の核心機関であり、DeepSeekへの投資は単純なスタートアップ投資ではなく、中国のAI半導体エコシステム内製化戦略の一環として捉えるべきだ。
核心は、DeepSeekの最新V4モデルがHuaweiのAscend 950PRチップに最適化されている点だ。HuaweiのAIチップ売上は、NVIDIAの輸出規制という追い風を受けて中国市場でNVIDIAをすでに追い抜く状況にある。つまり、米国のチップ輸出規制が逆説的に、中国国内でのHuawei AIチップエコシステムの強化と、DeepSeekのような効率的なモデル開発を同時に促進する構造となっている。より広い市場レベルでも構造的な変化が感じ取れる。中国LLMのグローバルトークン使用シェアが1年で5%から32%へ急騰し、米国モデル(19%)を追い抜いた(Morgan Stanley)——これは、価格競争力を前面に出した中国AIモデルの普及がすでに本格化していることを示している。中国最大の消費者向けAIアプリのDoubaoが、月間アクティブユーザー3億4,500万人という基盤の上で有料化を開始したことも、中国AI市場が補助金段階から商業化段階へと移行しつつあるシグナルだ。AIモデル競争は、米国ビッグテックのみの舞台から離れ、中国が価格と効率性で異なる角度の優位性を確立していく局面へと進んでいる。
コメント [0]