SK hynixは、次世代のAI向け高帯域幅メモリー(HBM)の生産や、先進的なパッケージング技術によるロジックとHBMの統合に向け、TSMCとパートナーシップ協定を結んだことを明らかにした。SK hynixはこれにより、2026年から量産が予定されているHBMファミリーの第6世代であるHBM4の開発を進める計画だ。
奇しくも、SK hynixの発表に先んじてライバルSamsungは同社独自のHBM4を2025年までに市場に投入する計画を明らかにしていた。今回の2社の提携は、Samsung Electronicsをはじめとする急成長中の追随企業に対し、HBM分野での主導権を確固たるものにする狙いもあるようだ。
SK hynixの社長兼AIインフラ責任者であるJustin Kim氏は、「TSMCとの強力なパートナーシップにより、顧客とのオープン・コラボレーションへの取り組みが加速し、業界最高性能のHBM4が開発されることを期待しています。この協力体制により、当社はカスタム・メモリー・プラットフォームの領域で競争力を強化することで、総合AIメモリー・プロバイダーとしての市場でのリーダーシップをさらに強化していきます」と、述べている。
今回の発表は、世界のチップメーカー各社が、プロセッサーなどのロジック半導体の需要を牽引しているAIブームを利用しようと競争している中で行われた。SK hynixとTSMCは、AIチップ市場のリーダーであるNVIDIAの主要サプライヤーでもある。
SK hynixによると、両社はまず、HBMパッケージの最下部にあるベースダイの性能向上に注力するという。
HBMは、TSV(Through Silicon Via)と呼ばれる加工技術によって、ベースダイの上にコアDRAMダイを積層することで製造される。TSVとは、ベースとなるロジックチップやDRAMチップを垂直に貫通する電極で上下のチップを接続するインターコネクト技術のことだ。ベースダイは、HBMチップを制御するGPUに接続されている。
SK hynixは、第4世代のDRAMメモリであるHBM3Eまでのベースダイを製造するために独自の技術を使用してきたが、HBM4のベースダイにはTSMCの先進ロジックプロセスを採用し、限られたスペースにさらなる機能を詰め込むことができるようにする予定だと述べている。
これにより、SK hynixは、性能と電力効率に対する顧客の幅広い要求を満たすカスタマイズされたHBMを製造することができる、と同社は述べている。
両社はまた、SK hynixのHBMとTSMCのCoWoSの最適化で協力するとのことだ。CoWoS(Chip on Wafer on Substrate)とは、インターポーザーと呼ばれる特殊な基板上にGPU/xPU、ロジックチップ、HBMを接続するTSMC独自のパッケージング・プロセス。ロジックチップと垂直方向に積層された(3D)HBMが1つのモジュールに統合され、水平方向(2D)のパッケージ基板上に配置されるため、2.5Dパッケージとも呼ばれる。
「次世代HBM4を見据えて、われわれは、共通の顧客のために新たなAIイノベーションを解き放つ最高の統合ソリューションを提供するために緊密に協力し続けることを確信している」とTSMCの事業開発・海外事業室のKevin Zhang上級副社長は述べた。
HBMは、従来のメモリーチップと比較して、必要とされる高速処理速度を提供するため、AIブームには欠かせないものとなっている。
現在、SK hynix、Sansung、Micronが、AIコンピューティングに使用されるNVIDIAのH100システムのような強力なGPUと組み合わせることができるHBMチップを提供することができる。
市場調査会社のTrendForceは、SK hynixが今年の世界HBM市場で52.5%のシェアを確保し、Samsungが42.4%、Micronが5.1%と続くと予測している。
今月初め、SK hynixは38億7000万ドルを投じてインディアナ州に先進的なAIチップのパッケージングと研究開発施設を建設すると発表している。
Sources
コメント