NVIDIAは、AIデベロップメントキットの新製品「Jetson Orin Nano Super」を発表した。従来モデルと比較して70%高い演算性能を実現しながら、価格は499ドルから249ドルへと半減。手のひらサイズながら67 TOPS(1秒あたり67兆回の演算処理)を実現し、エッジAIコンピューティングの新たな可能性を切り開く。
圧倒的なコストパフォーマンスを実現した新アーキテクチャ
新型のJetson Orin Nano Superは、従来モデルの設計を踏襲しながらも、大幅な性能向上を実現している。中核となるプロセッサには、6コアのArm Cortex-A78AE CPUを採用し、1.7GHzという高クロックでの動作を可能にした。これにGPU機能としてNVIDIAのAmpereアーキテクチャを基盤とした1,024基のCUDAコアと32基のTensorコアを組み合わせ、1,020MHzで駆動させることで、sparse演算では67 TOPS、dense演算では33 TOPSという印象的な処理性能を達成している。
メモリシステムも大幅に強化され、8GBのLPDDR5メモリを搭載。帯域幅は前世代から50%向上し、102GB/sという高速なデータ転送を実現した。この改善は特に大規模言語モデル(LLM)の処理において重要な意味を持つ。具体的には、4ビット量子化されたMetaの80億パラメータモデルLlama 3.1を使用した場合、毎秒18-20トークンの生成速度が見込まれる。これは、ローカル環境でのAIチャットボット実装を現実的なものとする性能といえる。
電力管理の面では、USB-Cまたは専用のバレルコネクタを通じて給電が可能で、最大性能を引き出すには25ワットの電力供給が必要となる。ストレージに関しては、高速なSSDを搭載可能なM.2スロットに加え、より手軽なmicroSDカードスロットも備えている。オペレーティングシステムには、NVIDIAのハードウェアに最適化されたLinuxディストリビューションであるL4Tを採用しており、開発環境としての使いやすさも考慮されている。
性能向上の具体的な数値を見ると、大規模言語モデル(LLM)では1.37倍から1.63倍、ビジョンモデルでは1.36倍から2.04倍、ビジョントランスフォーマーでは1.43倍から1.69倍というimpressiveな性能向上を達成している。これらの向上は、単なるハードウェアの進化だけでなく、ソフトウェアスタックの最適化による相乗効果によって実現されている点も注目に値する。
このような総合的な性能向上を実現しながら、価格を従来の499ドルから249ドルへと半減させた点は、NVIDIAのエッジAIデバイス市場における強い競争力を示すものといえる。
豊富な接続性とソフトウェアエコシステム
本製品は拡張性も考慮されており、4つのUSB 3.2 Type-Aポート(10Gbps)、2つのMIPI CSIカメラコネクタ(Raspberry Piカメラ互換)、2280および2230規格のM.2コネクタ(SSD用)、そしてRaspberry Pi互換の40ピンGPIOを搭載している。
ソフトウェア面では、NVIDIAの豊富なAIツールスイートをサポート。Isaac(ロボティクス)、Metropolis(ビジョンAI)、Holoscan(センサー処理)などが利用可能で、開発者は即座にAI開発に着手できる環境が整っている。
Source
コメント