広帯域メモリの急先鋒HBM、いよいよ本命のHBM2が登場へ

2015年、AMDがRADEON Furyシリーズに採用して話題となったHBM(High Bandwidth Memory)、2016年にはついに本命と目されるHBM2が登場します。

HBM2ではDRAM自体の製造メーカーも複数になり、AMDだけではなくNVIDIAも新型のGPUに搭載の予定です。

チップ当たりのメモリ帯域が4倍に

HBM2ではスタック(積層したメモリチップのかたまり)あたりのメモリ帯域は2倍になります。このためGPUなどで採用されることが予想される、4スタック構成でのメモリの転送レートは1GB/秒に達し、やっと今までの形態のビデオ用のDRAMを転送レートの面で突き放すことができるようになります。

また、HBM1ではスタックの中で4つのチップを積層した状態でなければ100%の転送レートを確保できませんでしたが、HBM2では2つのチップの積層だけでも最高の転送レートを実現可能になります。つまりチップ当たりでみると、転送レートは4倍にまで拡大されています。

スポンサーリンク
広告大

構成も多彩に

HBM2では1チップ当たりの容量は8Gbit品が主流になります。このため2つチップを積層したスタックの容量は2GBになります。また、最高8層までのスタックも可能で、この場合には1スタック当たり8GBが実現できます。

今のところ想定されているHBM2の実装では4スタック程度までを使うことが考えられていますので、1スタックから4スタックまでのバリエーションと、1スタック当たり2GB~8GBのバリエーションとの掛け合わせで、2GB~32GBまでの広帯域メモリのソリューションを準備できることになります。

ハイエンドのビデオカードであれば4スタックを使って1TB/秒のメモリ帯域を使うことになると思いますが、ミドルクラスやミドルハイと呼ばれるクラスのビデオカードであれば、2スタック構成の512GB/秒の帯域で十分かもしれません。

また、1スタックのみで256GB/秒の帯域と2GBの容量を、CPUのキャッシュ的に利用することも視野に入ってきます。

今のCPUはAMDもインテルも、CPUにGPUを統合する方向が主流です。CPUのみでもメモリ帯域を使い切る可能性がある上に、さらにデータを膨大に食うGPUが統合されていますから、最新のCPUではDDR4の高速メモリを採用しても常にメモリ帯域は不足気味となっています。

インテルではこれを補うためにパッケージ内に高速のDRAMを作りこんで(eDRAM:Embeded DRAM)キャッシュとして利用していますが、製造方式の関係でインテルのeDRAMは容量的に小さめのものとなっていて、メモリ帯域でも2積層のHMB2、1スタックに劣る帯域しか実現できていません。

HBM2ではこのような用途への適用も視野に入ります。

問題は価格

HBM2がより広いジャンルに適用されて利用範囲が広がっていくためのネックは、やはりその価格です。

HBM2のDRAMチップ時代もまだ高価ですし、現在HBM2実装のための必須の要素となっている、シリコン製の配線層(というよりは微細な配線のみのチップ)であるシリコンインタポーザもコストを引き上げる要因です。

これらのコストの問題をクリアしなければ、より安価なGPUへの採用もCPUへの採用も難しい状態が続きます。

メモリチップなどの半導体の価格を引き下げるのに一番有効なのは大量に生産することですが、卵が先かニワトリが先かの問題ではないですが、価格が下がらなければ採用製品を広げるのは難しく、採用製品が広がって量産効果が出なければ価格も下がらない、という難しい問題がやはりHBMにも待ち構えています。

製品のスペック自体はパソコン用CPUやGPUだけではなく、HPC(High Performance Computing)分野などでも待望され続けているものですので、最初の導入の壁をどのような形で乗り越えてHBMが広がっていくか注目されます。

ちなみに、世の中に見える形でHBM2が登場するのは、AMD、NVIDIAの次の世代のハイエンドビデオカード登場のタイミングとなると思われます。

スポンサーリンク
広告大
広告大
  • このエントリーをはてなブックマークに追加

コメントをどうぞ

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です