AMDとIntelは最近のAIブームの波に乗り遅れまいと、次世代SoCでのAI処理性能の向上を盛んに宣伝しているが、これはそうした機能をあまり重要視していないユーザーにとってはもしかしたらあまり歓迎すべき流れではないかも知れない。
Anandtechのフォーラムに投稿された、リーカーのUzzi38氏は、AMDの次世代SoCである「Strix Point」について、開発初期と現在での仕様に差が出てきていることを指摘している。これは、今日の生成AI処理に対応する為のNPUの強化という結果で現れており、その犠牲としてCPU(Zen 5)やiGPU(RDNA 3+)のパフォーマンスが当初の計画よりも低下しているというのだ。同氏は、計画初期には、大規模なSLC(System-Level-Cache)が搭載されておりこれがCPUやGPUの大幅な性能アップに繋がっていたが、このSLCは現在はNPUのための大規模なAI Engineブロック置き換わっていると報告している。
Uzzi氏への返信で、adroc_thurston氏によって、Strix 1またはStrix Pointモノリシックには、それが削除される前に一度16MBのMALLキャッシュが搭載されていたという報告も行っている。
つまり彼らは、AMDやIntelが大きく宣伝しているAI処理ブロックは、本来であれば、CPUやiGPUのための多くのコア、より広いキャッシュなど、他の部分に充てることができたはずの貴重なダイスペースの大部分を占めることになると指摘しているのだ。現在のAI PCの流行により、チップメーカーは標準的なCPU/iGPU性能向上は後回しに氏、NPUに重点を置くようになったようだ。
AMDやIntelなどのチップメーカーは、より高速なNPUを追加することにリソースを割く可能性が高く、次世代SoCのCPUやGPUの改良は小幅な性能向上に落ち着く可能性もある。もし彼らがNPU以外の部分に注力していたらどうなっていたかもまた興味深いところだ。
Sources
コメント