NVIDIAは、開発者や運用チームがAIハードウェア・インフラを管理・最適化することを容易にするKubernetesベースのワークロード管理およびオーケストレーション・ソフトウェア・プロバイダーであるRun:aiを買収することで最終合意に達した。NVIDIAによると、AIの導入はワークロードがクラウド、エッジ、オンプレミスのデータセンター・インフラに分散されることで複雑化しており、Run:aiのソリューションはこれを解決するために役立つとのことだ。
Run:aiのCEO兼共同設立者Omri Geller氏は、今回の買収決定について次のように述べている:「Run:aiは2020年以来、NVIDIAと緊密な協力関係にあり、顧客がインフラを最大限に活用できるよう支援するという情熱を共有しています。NVIDIAの一員となることを嬉しく思いますし、共に歩んでいくことを楽しみにしています」。
顧客がRun:aiのプラットフォームから得られる利益について、NVIDIAは次のように説明している:
- 共有コンピュートインフラストラクチャを管理するための一元化されたインターフェイスにより、複雑なAIワークロードに簡単かつ迅速にアクセスできる。
- ユーザーを追加し、チーム単位で管理し、クラスターリソースへのアクセスを提供し、クォータ、優先度、プールを制御し、リソースの使用を監視して報告する機能。
- GPUをプールして計算能力を共有する機能(数分の1のGPUから複数のGPU、または異なるクラスタ上で動作するGPUの複数ノードまで)。
- GPUクラスタリソースの効率的な利用により、お客様は計算への投資からより多くの利益を得ることができる。
Run:aiのプラットフォームを利用している顧客に対して、NVIDIAは当面、同じビジネスモデルの下で同じ製品を提供し続けると述べた。また、Run:aiの製品ロードマップへの投資も継続するが、これらの機能はNVIDIA DGX Cloudに統合される。
NVIDIAはこの買収により、GPUの利用率の向上、GPUインフラの管理の改善、オープン・アーキテクチャによる柔軟性の向上といったメリットを顧客が享受できることを期待している。NVIDIAとRun:aiの両社は、買収金額や買収完了時期など、買収に関する詳細を明らかにしていないが、この件に近い2人の情報筋がTechCrunchに語ったところによると、買収額は7億ドルだという。
Source
コメント