世界がAI技術の最新のトレンドを利用しようと躍起になるなか、ハイテク・ハードウェアのひとつであるグラフィック・プロセッシング・ユニット(GPU)が驚くほど注目されている。
最高級のGPUは数万ドルで販売されることもあり、大手メーカーのNVIDIAは、同社製品に対する需要の急増に伴い、その市場評価額が2兆米ドルを突破した。
GPUはハイエンドのAI製品だけではない。スマートフォンやノートパソコン、ゲーム機にもそれほど高性能ではないGPUが搭載されている。
GPUとは何なのか?そして、何がGPUをそれほど特別なものにしているのか?
GPUとは?
GPUはもともと、ビデオゲームやコンピューター支援設計ソフトウェアに含まれるような複雑な3Dシーンやオブジェクトを素早く生成して表示することを主な目的として設計された。最新のGPUは、ビデオストリームの解凍などのタスクも処理している。
ほとんどのコンピュータの「頭脳」は、中央演算処理装置(CPU)と呼ばれるチップだ。CPUはグラフィカルなシーンの生成やビデオの解凍に使用できるが、GPUに比べてこれらのタスクの処理速度は遅く、効率も低いのが一般的だ。CPUは、ワープロやウェブページの閲覧など、一般的な計算タスクに適している。
GPUはCPUとどう違うのか?
一般的な最新のCPUは8~16個の「コア」で構成されており、それぞれが複雑なタスクを順番に処理する。
一方、GPUは何千もの比較的小さなコアを持ち、それらがすべて同時に(「並列に」)動作するように設計されているため、全体として高速な処理が可能だ。そのため、GPUは、単純な処理を次々と実行するのではなく、多数の処理を同時に実行する必要があるタスクに適している。
従来のGPUには、主に2つの種類がある。
1つ目は、スタンドアロン型のチップで、大型のデスクトップ・コンピューター用のアドオン・カードに搭載されることが多い。もうひとつは、同じチップパッケージにCPUと組み合わされたGPUで、ノートパソコンやプレイステーション5などのゲーム機によく搭載されている。どちらの場合も、CPUがGPUの動作を制御する。
なぜGPUがAIに役立つのか?
GPUはグラフィックシーンの生成以外にも活用できることがわかった。
ディープ・ニューラル・ネットワークなど、人工知能(AI)の背後にある機械学習技術の多くは、さまざまな形式の「行列乗算」に大きく依存している。
これは、非常に大きな数の集合を掛け合わせ、合計する数学的操作である。これらの演算は並列処理に適しているため、GPUによって非常に高速に実行できるのだ。
GPUの次の目標は?
GPUの演算能力は、コア数の増加と動作速度の向上により、着実に向上している。これらの改善は、主に台湾のTSMCなどの企業によるチップ製造の改善によってもたらされている。
あらゆるコンピューター・チップの基本構成要素である個々のトランジスタのサイズは小さくなっており、同じ物理的スペースにより多くのトランジスタを配置できるようになっている。
しかし、それがすべてではない。従来のGPUはAI関連の計算タスクには有用だが、最適ではない。
GPUがもともと、グラフィックスに特化した処理を提供することでコンピューターを高速化するために設計されたように、機械学習タスクを高速化するために設計されたアクセラレーターが存在する。こうしたアクセラレーターは、しばしば「データセンターGPU」と呼ばれる。
AMDやNVIDIAなどの企業が製造する最も人気のあるアクセラレーターのいくつかは、伝統的なGPUとしてスタートした。時間の経過とともに、より効率的な「ブレイン・フロート」数値フォーマットをサポートするなど、さまざまな機械学習タスクをよりうまく処理できるように設計が進化してきた。
GoogleのTensor Processing UnitsやTenstorrentのTensix Coresのような他のアクセラレーターは、ディープ・ニューラル・ネットワークを高速化するために一から設計された。
データセンターGPUやその他のAIアクセラレーターは通常、従来のGPUアドオン・カードよりも大幅に多くのメモリーを搭載しており、これは大規模なAIモデルのトレーニングに不可欠である。大規模なAIモデルであればあるほど、その能力と精度は向上する。
トレーニングをさらに高速化し、ChatGPTのようなさらに大規模なAIモデルを扱うには、多くのデータセンターGPUをプールしてスーパーコンピューターを形成することができる。この場合、利用可能な数値処理能力を適切に活用するため、より複雑なソフトウェアが必要になる。もうひとつのアプローチは、Cerebrasが製造する「ウェハースケール・プロセッサ」のような、単一の非常に大きなアクセラレーターを作ることだ。
特化型チップは未来か?
CPUも立ち止まってはいない。AMDやIntelの最近のCPUは、ディープ・ニューラル・ネットワークが必要とする数値計算を高速化する低レベル命令を内蔵している。この追加機能は、主に「推論」タスク、つまりすでに別の場所で開発されたAIモデルを使用する際に役立つ。
そもそもAIモデルを訓練するためには、大型GPUのようなアクセラレーターが依然として必要だ。
特定の機械学習アルゴリズムに特化したアクセラレーターを開発することは可能だ。例えば最近、Groqという会社が、ChatGPTのような大規模な言語モデルを実行するために特別に設計された「言語処理ユニット」(LPU)を開発した。
しかし、このような特殊なプロセッサを作るには、かなりのエンジニアリング・リソースが必要だ。歴史によると、機械学習アルゴリズムの使用量と人気はピークに達し、その後衰える傾向がある。
しかし、一般消費者にとっては、それが問題になる可能性は低い。あなたが使っている製品のGPUやその他のチップは、静かに高速化し続けている可能性が高い。
コメント