Micron Technologyが2026年度第2四半期の決算を発表し、売上高は238.6億ドル(前年同期比196%増)、1株当たり利益は12.20ドルと、アナリスト予想(売上197億ドル、EPS 9.00ドル)を大幅に上回った。
数字が語る「メモリ・スーパーサイクル」
| 指標 | Q2 2026実績 | 前年同期 | 成長率 | |MicronのCEO Sanjay Mehtaは「私たちは半導体史上最大の需要サイクルの初期段階にいる」と述べた。この発言は誇張ではない。AIモデルのパラメータ数は毎年10倍のペースで増加しており、それに比例してメモリ需要も拡大する。HBM4の世代では1チップあたりのメモリ帯域がさらに倍増し、需要と供給のギャップは少なくとも2027年の新工場稼働まで縮まらない見通しだ。投資家にとっての問いは「サイクルのピークはいつか」ではなく「この構造変化が一時的なものか恒久的なものか」だ。AIの浸透が不可逆的であるならば、メモリの需給構造も不可逆的に変化する。Micronの決算は、その変化の「証拠」だ。
------|-------------|----------|--------| | 売上高 | 238.6億ドル | 80.5億ドル | +196% | | EPS | 12.20ドル | — | 予想+35% | | クラウドメモリ | 77.5億ドル | — | +160%超 | | モバイル+クライアント | 77.1億ドル | 22.4億ドル | +244% | | 来期ガイダンス | 335億ドル | 93億ドル | +260% |
なぜメモリが不足しているのか
原因はNVIDIAのGPU世代交代にある。各世代のGPUはより多くのHBM(高帯域メモリ)を搭載するため、GPU出荷が増えるほどメモリ需要も指数関数的に増加する。さらに、AIの学習から推論へのシフト、そしてエージェントAIの台頭が、メモリ消費量をさらに押し上げている。
1,000億ドルの製造投資
Micronはアイダホ州とニューヨーク州に巨大な新工場キャンパスを建設中だ。アイダホは2027年中頃に初期生産を開始予定、ニューヨークは1,000億ドル規模の投資で2028年後半にウェハー出力を開始する。
2026年の設備投資は250億ドル超を見込んでおり、これ自体がアナリスト予想(224億ドル)を上回る。
HBM市場の競争——SK Hynix vs Samsung vs Micron
AI向けメモリの主戦場であるHBM(高帯域幅メモリ)市場では、3社が激しいシェア争いを繰り広げている。
| メーカー | HBMシェア(2025年推定) | 強み |
|---|---|---|
| SK Hynix | 約50% | 業界初のHBM3E量産。NVIDIAとの深い関係 |
| Samsung | 約30% | 12段積層HBM3Eで巻き返し。歩留まり改善が課題 |
| Micron | 約20% | HBM3E 8Hで最高帯域を主張。急速にシェア拡大中 |
Micronは後発だが追い上げが著しい。2026年度Q2の決算でHBM売上が四半期10億ドルを超えたと見られ、同社史上初のマイルストーンを達成した。SK Hynixが先行したHBM3Eの量産でMicronは半年ほど遅れたが、次世代HBM4(2026年後半〜2027年)では同時期の投入を目指している。
CHIPS法資金とMicronの製造投資
Micronのアイダホ州・ニューヨーク州の巨大工場建設は、米国CHIPS法の補助金によって加速されている。
| 投資先 | 規模 | 生産開始予定 |
|---|---|---|
| アイダホ州ボイシ | 大規模ファブ増設 | 2027年中頃 |
| ニューヨーク州クレイ | 1,000億ドル超(最終形態) | 2028年後半 |
| 2026年の設備投資 | 250億ドル超 | — |
ニューヨークの1,000億ドル投資は、米国史上最大規模の半導体製造投資の一つだ。完成すれば最先端DRAMとHBMの製造拠点となり、米国のメモリ生産能力を大幅に強化する。
メモリ価格サイクルの変質
従来のメモリ産業は、供給過剰と不足を繰り返す「シリコンサイクル」に支配されてきた。だがAI需要の構造的な成長は、このサイクルの性質を変えつつある。HBMの製造は通常のDRAMより遥かに複雑で、歩留まり向上に時間がかかるため、供給が需要に追いつくには2027〜2028年まで要すると見られている。「メモリ・スーパーサイクル」の名は、この構造的な需給逼迫を反映している。
株価への影響
決算発表後、Micron株は時間外取引で上昇。AIドリブンのメモリ需要が構造的なものであることを市場が確認した形だ。
エージェントAIが生む「新たなメモリ需要」
従来のAIワークロードはモデルの学習(トレーニング)が主だったが、2026年に入り、推論(インファレンス)とエージェントAIの台頭が新たなメモリ需要を生んでいる。エージェントAIはユーザーの指示を受けて複数のツールを連携させながら長時間にわたってタスクを実行するため、大量のコンテキストウィンドウ(作業メモリ)を必要とする。OpenAIのGPT-5.4が100万トークンのコンテキストをサポートすることは、この傾向を象徴している。
MicronのCEO Sanjay Mehtaは決算説明会で「AI推論とエージェントワークロードが次の成長ドライバーだ」と述べた。学習は一度実行すれば完了するが、推論は24時間365日継続的に行われる。推論の累積メモリ消費量は学習を大幅に上回る可能性があり、これがメモリ需要の「底上げ効果」として機能する。
さらに、エッジAI(スマートフォン、PC、IoTデバイスでのローカルAI推論)の普及も追い風だ。AppleのApple Intelligence、SamsungのGalaxy AI、QualcommのSnapdragon X Elite——いずれもオンデバイスAI処理のためにメモリ容量の増大を要求しており、モバイル・クライアント向けの売上成長率+244%はこのトレンドを反映している。
メモリ産業は長年「コモディティ」と見なされてきたが、AI時代には「戦略物資」としての性格を強めている。Micronの決算はその転換点を明確に示している。
Samsung、SK Hynixとの3社寡占構造も、Micronの収益性を支える重要な要因だ。HBM市場ではSK Hynixが先行し約50%のシェアを握るが、Micronは歩留まり改善と8層スタック技術でシェアを急速に拡大している。2026年後半に量産開始予定のHBM4では、Micronが技術的リードを取る可能性がある。メモリ産業の勢力図がAI需要によって塗り替えられつつある。
起業家への示唆
メモリのコストと供給は、AIプロダクトの開発コストに直結する。現在の需給逼迫は2027年の新工場稼働まで続く可能性が高く、AIインフラコストの見積もりには「メモリ・プレミアム」を織り込む必要がある。
出典: CNBC、Sherwood News、IndexBox