AI向けの需要がメモリ市場を丸ごと飲み込みつつあります。
Samsung、SK hynix、Micron といった主要メモリメーカーは、次々に新工場・新ラインへの投資を打ち出し「増産フェーズ」に突入しました。
ただし、ここで期待しがちな「よし、ならDDR5やスマホ用DRAMも安くなるのでは?」という話は、少なくとも短期では“そう簡単にいかない”可能性が高い。今回のポイントはここです。
この記事では、各社の投資計画と立ち上がり時期、そして なぜ増えたキャパが一般消費者に回りにくいのか を、背景も含めて補足しながら解説します。
いま何が起きてる?「売り手市場」が極まってきたメモリ
メモリ不足は、ざっくり言うと 需要が供給を大きく上回り、売り手が強い市場 へ入っています。
- AIデータセンターの建設ラッシュで、DRAMやHBM(高帯域メモリ)の取り合いが発生
- 企業は「欲しい時に買える」保証が欲しくて、メーカーと 長期供給契約(LTA) を結びたがる
- 一方で、PCやスマホなどの“普通の需要”もゼロにはならない(=底堅い)
結果として、供給側ができる現実的な対応は 増産投資 になります。そのため、現在は「数千億ドル規模(hundreds of billions)」の投資が動いています。
Micron:投資額がデカい。でも“効くのはいつ?”が重要
米国 Boise(ボイシー):最大級クリーンルーム、ただしフル稼働は 2027年後半
WSJ報道として、Micron が新規プロジェクトに 2000億ドル 規模を投じる計画が紹介されています。象徴的なのがアイダホ州ボイシーの大型キャンパス。
- 敷地:450エーカー規模
- 「米国最大のクリーンルーム施設」になる見込み
- 工場は2棟(2 fabs)
- ただし、フル出力の立ち上がりは 2027年後半(H2 2027) とされている
ここが重要で、「工事してます!」というニュースは派手でも、実際にメモリが市場に増えて流れ込むまで時間がかかる という現実があります。
クリーンルーム面積などからの推測として、ボイシーだけで 150K〜200K WPM(wafer per month)規模の可能性、現在のMicron総出力比で4割増、になる可能性があります。
ニューヨーク:規模はとんでもないが、時間軸が“別世界”
もう一つの目玉がニューヨーク州の計画。
- 投資規模:最大1000億ドル
- 600,000平方フィート級のクリーンルームを4つ追加する構想
- しかし、フルスケールは 2045年 という超長期
つまり、これは「明日から値下がりする」ではなく、米国半導体産業の長期再構築に近い時間軸 の話です。
SK hynix:韓国 Yongin(龍仁)が“前倒し”で動く
韓国メディア(Chosun Biz)を引用する形で、SK hynix が “スーパーサイクル” を取りに行くため、立ち上げを前倒ししているという話が出ています。
- Yongin新工場:投資総額 850億ドル
- テスト稼働:今月〜来月開始 の見込み(記事時点)
- 第1工場の稼働開始:当初計画より前倒し(2〜3月に前倒し、といった記述)
ここはMicronの米国新工場よりも時間軸が近く、早く市場に影響が出る可能性がある と言えます。
Samsung:Pyeongtaek P4も前倒し。2027に向けて供給は増える見込み
Samsung も平沢(Pyeongtaek)での P4 計画を進め、完成時期が前倒しされたとされています。
- 完成:当初の「来年Q1」から 2026年Q4 へ前倒し
- 生産規模:100K〜120K WPM といった“意味のある出力”が期待
これらを総合すると、結論はこうです。
2027年に向けて供給状況は改善しそう
ただし、その恩恵が一般消費者に来るとは限らない
ここからが“本題”です。
じゃあ増産したメモリはどこへ行くの?「AIが吸う」問題
増産でキャパが増えても、その多くはAI向けに割り当てられる可能性が高い。
理由はシンプルで、メーカー側から見て AI向けのほうが儲かる からです。
- AIサーバーやアクセラレータは単価が高い
- HBMなど高付加価値品の比率が上がる
- 長期契約で需要が読める(メーカーにとってリスクが低い)
さらにもう一段、技術トレンドも絡みます。
DRAMの主役が変わってきた:LPDDRすらAIへ
1) 推論(Inference)時代になって、メモリ帯域がボトルネック化
生成AIは、学習(Training)だけでなく運用(Inference)が爆発的に増えています。
すると、GPU/アクセラレータの演算よりも メモリ帯域・容量が詰まる 場面が増える。
結果として、
- より高速なHBM(HBM3Eなど)
- 特殊なモジュール(SOCAMMのような形態)
- あるいはラックスケールでのLPDDR活用
こういった「メモリ側の強化」が主戦場になります。
2) かつて“スマホのもの”だったLPDDRもAIラックに入ってくる
本来 LPDDR は低消費電力のモバイル向け、というイメージが強いですが、AIサーバー側が「帯域と効率」を求めると、採用範囲が広がることがある。
この現象が起きると何が困るかというと、
- スマホや薄型ノートが使っていた系統のメモリ供給もAIに奪われる
- 結果、一般向けの“供給余裕”が増えにくい
つまり「増産しても、増えた分が別の吸い込み口に流れる」構図です。
じゃあ一般ユーザーはどうなる?DDR5・スマホは当面“ジワ高”かも
結論としては
- 消費者向けのメモリ不足は すぐには止まらない
- AI向けが優先される限り、供給が改善しても価格が下がりにくい
という見立てです。
さらにDRAMコスト増でスマホの部材コスト(BoM)が最大25%増え、出荷が鈍る可能性もあり、メーカーの価格転嫁が進むと、端末価格やラインナップにも影響が出ます。
2027年が分岐点。ただし“量”より“配分”が勝負
まとめると、状況はこうです。
- 工場は増える(投資は本物)
- 供給は2027年に向けて増える(前倒しもある)
- でも 増えた分の多くがAI向けに流れる可能性が高い
- だから 一般向けの品薄・高値が長引くシナリオ がある
メモリ価格を決めるのは「供給量」だけじゃなくて、「どこに配るか」です。
そして今は、その配り先が“AIの上流席(AI Elite)”に偏りやすい。これが、2026年現在のメモリ構図です。

コメント