HBM vs DRAM|構造の違いと投資家が知るべきAI半導体の選ばれる理由

👤

なかの@投資大好き

10年以上の投資経験を持つ個人投資家。日本株、米国株、韓国株、ETF、投資信託などを経験。普段はサラリーマン。

この記事は、AI半導体の需要構造を理解したうえで、メモリ関連銘柄への投資判断を深めたい個人投資家向けに書いている。

結論:HBMがAI時代に選ばれる理由は「速さ」だけではない。積層構造・広帯域・省電力・パッケージ統合という4つの構造的優位が同時に成立しているからであり、この構造を理解することがメモリ銘柄の本質的な評価につながる。

そもそもDRAMの構造とは何か?基礎から整理する

DRAMは「Dynamic Random Access Memory」の略で、コンデンサとトランジスタの組み合わせで1ビットのデータを保持する揮発性メモリだ。コンデンサに電荷を蓄えることでデータを表現するが、電荷は自然に放電するため、定期的にリフレッシュ動作が必要になる。この「ダイナミック(動的)」という名称はそこから来ている。

従来のDRAMは、メモリチップとプロセッサを別々の基板に配置し、PCBと呼ばれるプリント回路基板上の配線を通じてデータをやり取りする構造をとる。この構造は設計の自由度が高く、製造コストが低い反面、チップ間の物理的な距離が長くなるため、データ転送の速度に限界が生じる。

半導体産業の一般的な定義では、メモリ帯域幅(Memory Bandwidth)とは「単位時間あたりに転送できるデータ量」であり、AIの学習・推論においてこの帯域幅が処理速度のボトルネックになることが多い。GPU内部の演算コアは非常に高速に計算できるが、そこへデータを届けるメモリが遅ければ、演算コアは「待ち状態」に入る。これをメモリウォールと呼ぶ。

つまり、DRAMの構造的な課題は「計算能力の向上スピードに、メモリの転送速度が追いつかない」という非対称性にある。AI時代はまさにこの非対称性が顕在化した局面だ。

HBMの構造はどこが根本的に違うのか?積層・TSV・インターポーザーを読む

HBM(High Bandwidth Memory)は、複数のDRAMダイを縦方向に積み重ね、TSV(Through-Silicon Via:シリコン貫通電極)という垂直方向の微細な導体で各ダイを直接接続する構造をとる。この積層構造によって、従来の平面配線では到達できなかった膨大な接続本数(IO数)を実現している。

JEDEC(半導体標準化機関)の仕様によると、HBM3Eは1スタックあたり最大1,024ビットのバス幅を持つ。これに対して、一般的なDDR5 DRAMは1チャンネルあたり64ビット程度のバス幅にとどまる。バス幅の広さはそのままデータ転送の並列度に直結するため、HBMはDRAMと比べて桁違いの帯域幅を実現できる。

さらに、HBMはGPUやAIアクセラレータと同一パッケージ内に実装される。具体的には「インターポーザー」と呼ばれる中間基板の上にHBMとGPUダイを横並びで配置し、超短距離の接続を実現する構造だ。この実装方式をCoWoS(Chip on Wafer on Substrate)と呼び、TSMCが主要な製造を担っている。TSMCの技術文書によると、CoWoSによってチップ間の接続距離はミリメートル単位からマイクロメートル単位へと大幅に短縮される。

接続距離が短くなることで、信号を伝える際に必要な電力も劇的に下がる。NVIDIAのアーキテクチャ解説資料が示すように、HBMはDDR系メモリと比べて同等の帯域幅を実現するのに必要な電力が大幅に少ない。データセンターにとって消費電力はコストに直結するため、この省電力性は商業的な採用理由としても重要だ。

DRAMとHBMの構造比較|投資家が見るべき5つの軸

以下の比較表は、技術的な違いを投資判断に関係する軸で整理したものだ。仕組みの違いが、そのまま市場での役割の違いに直結していることを確認してほしい。

比較軸 従来DRAM(DDR5等) HBM(HBM3E等)
チップ構造 平面配置(単層) 縦積み(TSV積層)
バス幅(IO数) 64〜128ビット 512〜1,024ビット
メモリ帯域幅 数十〜100GB/s台 800GB/s〜1TB/s超
実装方式 PCB上に独立配置 GPUと同一パッケージ(CoWoS)
消費電力(同帯域比) 相対的に高い 相対的に低い
製造難易度 標準的 非常に高い(歩留まりが課題)
主な用途 PC・サーバー・一般用途 AI GPU・HPC・推論チップ
製造できる企業 多数(Samsung, Micron, SK Hynix等) 限定的(SK Hynix, Samsung, Micron)

この比較表から見えてくる最も重要な点は、製造できる企業の数だ。DRAMは世界中の複数プレイヤーが製造できるが、HBMはTSVの積層精度や歩留まり管理が極めて難しく、量産体制を持てる企業は現時点で実質3社に限られる。供給が絞られる構造は、需要が増えるほど価格支配力が高まることを意味する。

なぜAIアクセラレータはHBMを必要とするのか?メモリウォール問題の本質

AIの学習・推論では、巨大なモデルのパラメータ(重み)を高速にメモリから読み出しながら、膨大な行列計算を繰り返す必要がある。GPT系のような大規模言語モデル(LLM)では、パラメータ数が数百億〜数千億に達することがあり、これを処理するGPUは演算スピードが極めて速い。

問題は、GPUの演算速度(FLOPS)に対して、メモリからのデータ供給速度(帯域幅)が追いつかないことだ。これが「メモリウォール」と呼ばれる現象であり、いくら演算コアを強化しても、メモリが遅ければ全体のスループットは向上しない。

NVIDIAのH100やBlackwellアーキテクチャを搭載したGPUが採用しているHBM3やHBM3Eは、この問題への直接的な回答だ。HBMによって帯域幅を従来DRAMの10倍以上に引き上げることで、GPUの演算コアに継続的にデータを供給できる。結果として、AI処理全体のスループットが向上する。

10年以上投資を続けてきた経験から言うと、こうした「構造的なボトルネックを解決する技術」が産業に組み込まれるとき、その技術を持つ企業の位置づけは急激に変わる。HBMの場合も、単にメモリが速いというスペックの話ではなく、「AIインフラの根幹に入り込んだ部品」として扱われる構造が形成されつつある。この違いを理解しているかどうかで、銘柄の見方が変わってくる。

SK Hynix・Samsung・Micronの構造的ポジションの違い

HBMを量産できる企業は現状、韓国のSK HynixとSamsung Electronics、そして米国のMicron Technologyの3社だ。ただし、各社の技術的な位置づけには差がある。

SK Hynixは、HBMの量産において業界最先行の実績を持つ。HBM1の開発においてAMDと共同で規格を策定した歴史があり、HBM3Eでも主要AIチップメーカーへの供給でリード的な立場にある。製造においてもTSMCとの協力関係を持ち、CoWoSパッケージングとの連携が深い。

Samsungは半導体全般での圧倒的な製造規模を持つが、HBMに関しては歩留まり(製造した中で正常動作する割合)の課題が業界内で指摘されてきた。同社はHBM3EおよびHBM4の開発を進めており、ロジック半導体(ファウンドリ)との垂直統合という独自の強みを持つ。

MicronはDRAM全体では競争力を持ちつつ、HBMでは後発となる。ただし、米国企業という地政学的な位置づけから、米国政府の調達・支援において有利な条件を持つ可能性がある。CHIPS法などの政策的な観点でMicronへの関心が高まる背景には、この構造的な要因がある。

投資家がHBMの構造から引き出すべき判断軸

ここまで読めば、HBMが単なる「高性能メモリ」ではなく、AIインフラを構成する不可欠なコンポーネントとして機能していることが分かる。投資家の視点で整理すると、以下の判断軸が浮かび上がる。

第一に、供給の集中度だ。HBMを量産できる企業が3社しかない構造は、AIサーバー需要が増えるほど供給が逼迫しやすい条件を意味する。この構造が持続する限り、製造各社の価格交渉力は高い状態に保たれやすい。

第二に、技術的な参入障壁の高さだ。TSVの積層技術、パッケージング精度、歩留まり管理のノウハウは短期間では模倣できない。新規参入が難しい構造は、既存プレイヤーの優位性を時間的に担保する。

第三に、依存関係のロックインだ。HBMはGPUと同一パッケージに組み込まれるため、GPUメーカーとメモリメーカーの間に深い技術的な協調関係が生まれる。一度特定のメモリメーカーとの統合が確立されると、切り替えには設計レベルの変更が必要になり、スイッチングコストが高くなる。

第四に、後工程(パッケージング)の重要性が高まっていることだ。CoWoSを担うTSMCや、パッケージング材料・基板を供給するサプライヤーも、この構造変化の恩恵を受けるポジションにある。HBMメーカーだけを見るのではなく、エコシステム全体のどの部分が構造的に強いかを考えることが、より精度の高い投資判断につながる。

まとめ|構造を理解することが、メモリ投資の出発点になる

HBMとDRAMの違いは、スペックシート上の数値の差ではない。積層構造・TSV接続・インターポーザー実装という三位一体の設計によって、メモリウォールという本質的な課題を解決する「構造的な答え」がHBMだ。

AIの学習・推論においてGPUの演算能力がいくら向上しても、データを届けるメモリの帯域幅が追いつかなければ意味がない。HBMはその非対称性を解消するために生まれ、今やAIアクセラレータの設計に深く組み込まれている。

投資家として見るべきポイントは、この構造が持つ「供給の集中性・参入障壁の高さ・パートナーとのロックイン」の3点だ。これらは短期の数値では見えないが、企業の競争優位を時間軸を持って評価するときに非常に重要な視座を提供する。

表面的なニュースや株価の動きだけを追っていると見落としやすいが、こうした構造を理解した状態で市場を見ると、個別のニュースが持つ意味が変わってくる。HBMの構造を把握することは、AI半導体全体のサプライチェーンを読む入口になる。

最終更新日:2026年4月19日 | 著者:なかの@投資大好き

※本記事は情報提供を目的としており、特定の銘柄への投資を推奨するものではありません。投資判断はご自身の責任で行ってください。

コメント

タイトルとURLをコピーしました