概要
この記事は、2026年にパソコンの価格が上がると言われている背景について、DRAM市場やAI需要を軸に整理した内容です。
内容は可能な限り調査しましたが、もし誤りがあればご指摘ください。
DRAMの価格高騰
まず前提として、パソコン向けメインメモリに使われる DRAM価格が上昇 しています。
DRAM は景気変動で価格の上下が激しい部品ですが、2024〜2025 にかけては以下の理由により値上げ傾向が続きました。
- 2023年の不況時に DRAM メーカーが生産縮小
- スマートフォン向け・サーバ向けの回復で需要増
- AI ブームによる HBM 需要の爆発
- HBM が高収益なため、メーカーが生産ラインをそちらへ優先
- 結果として PC 向け DRAM の供給が不足
この流れが 2026 年以降の PC 価格に影響すると見られています。
AI需要とHBMシフト
ではなぜ、DRAMメーカーは PC 向け DRAM より HBM(High Bandwidth Memory) を優先しているのでしょうか。
理由はシンプルで、
HBM のほうが圧倒的に利益率が高いから
です。
HBM は NVIDIA の AI GPU(H100 / B200 など)に搭載される超高速メモリで、AI サーバの心臓部です。
需要が急増しており、2024→2025で数倍規模の伸びと言われています。
HBM と PC 向け DRAM は用途も性能も大きく異なりますが、
- 製造工程の一部が共通
- 同じメーカー内で生産キャパを奪い合う
という構造があるため、HBM 需要が増えると PC 向け DRAM が圧迫されます。
その結果:
- HBM を優先 → メーカーは儲かる
- PC 向け DRAM の供給が減る
- 価格が上昇する
という流れが生まれています。
LLM 学習のボトルネックはメモリ
次に、なぜ AI 需要が増えると「メモリ」が大量に必要になるのか説明します。
LLM(大規模言語モデル)の学習では、
- パラメータ(重み)
- 勾配(gradient)
- 中間活性(activation)
など非常に大きなデータを扱います。
ここで技術的に重要なのが、LLM 学習における最大の壁(ボトルネック)です。
巨大なモデルを載せるための「容量」が必要なのはもちろんですが、それ以上に深刻なのが、
データの転送速度である “メモリ帯域(bandwidth)”
です。
Transformer の計算はメモリアクセス頻度が非常に高く、
- GPU の計算速度に対して、データの読み書きが追いつかない(メモリウォール問題)
- 巨大なデータを一度に送るための「太いパイプ」が必要
という理由から、単なる大容量メモリではなく、広帯域を持つ HBM のような超高速メモリが不可欠になります。
重みと表現力の関係
LLM の性能は、
パラメータ数(重み)=モデルの表現力
にほぼ比例します。
OpenAI や DeepMind の研究では、
- パラメータ数
- データ量
- 計算量
を増やすと スケーリング法則に従って性能が上がる ことが確認されています。
より賢い AI を作りたい企業は、
- パラメータ数を増やし
- そのために膨大なメモリを必要とし
- HBM を大量に消費する
という流れになります。
まとめ
現在の AI 開発は、
「より大きいモデルを、より高速なメモリで動かす」競争
になっています。
その結果、
- HBM 需要が爆発
- DRAM メーカーが利益率の高い HBM に生産をシフト
- PC 向け DRAM の供給が不足
- 2026 年に PC 価格へ反映され始める見込み
という構造が生まれています。
AI の進化が、私たちの PC 価格にも影響を与える時代になりました。