Facebookを運営するMetaが、初の自社開発AIトレーニングチップのテスト展開を開始した。情報筋によれば、このチップはTSMCによって製造され、テスト結果次第で生産を拡大する計画だという。これはNVIDIAなどの外部チップメーカーへの依存を減らす長期戦略の一環だ。同社はこの取り組みを通じて、巨額に膨らむAIインフラコストの削減も目指している。
テスト展開の詳細と技術的特徴
Reutersの報道によると、Metaは自社設計のAIトレーニング専用チップの小規模展開を開始したとのことだ。このチップは「専用アクセラレーター」と呼ばれる種類で、AI特化タスクのみを処理するよう設計されている。これにより、一般的なGPU(グラフィック処理ユニット)よりも電力効率が優れている可能性がある。
テスト展開は、半導体開発の重要なマイルストーンである「テープアウト」の完了後に始まった。テープアウトとは初期設計をチップ工場に送って製造する工程で、一般的に数千万ドルの費用と3〜6ヶ月の期間を要する。この段階で失敗した場合、問題を診断してテープアウト工程をやり直す必要がある。
この新チップはMeta Training and Inference Accelerator(MTIA)シリーズの最新製品とのことだが、であるならば、オープンソースのRISC-Vアーキテクチャをベースにしている可能性がある。Metaは以前から推論タスク用のチップでRISC-Vコアを採用しており、トレーニングチップでもこの技術を採用しているなら、業界でも最高性能のRISC-Vベースチップの一つとなり得る。
AIトレーニングチップは大量のデータを処理するため、最新の高帯域幅メモリHBM3やHBM3Eを搭載している可能性が高い。過去に報じられたMTIAチップの仕様によれば、7nmノードベースで、102 TOPS(8ビット精度)または51.2テラフロップス(FP16精度)の計算処理能力を持ち、800MHzで動作するとされていたが、現在テスト中のチップが同じ仕様かは明確でない。
自社チップ開発の歴史と将来計画
Metaは長年にわたり、外部メーカーへの依存度を減らすために自社チップの開発に取り組んできた。2022年には自社開発の推論チップを展開予定だったが、内部目標を満たせず計画を中止。代わりにNVIDIAのGPUに数十億ドル規模の発注を行い、方針を転換した。
しかし昨年、Metaは推論処理用のMTIAチップを導入し、FacebookとInstagramのニュースフィードのレコメンデーションシステムに実装。Meta最高製品責任者のChris Cox氏は最近の発言で、この初代推論チップを「大成功」と評価している。
Metaの幹部らは、2026年までに自社チップをAIトレーニングに使用し始める目標を掲げており、まずはレコメンデーションシステム向けから始めて、最終的にはMeta AIチャットボットなどの生成AI製品へと拡大する計画だ。
2025年の総費用予測は1140億~1190億ドルで、そのうち最大650億ドルがAIインフラへの資本支出として計画されている。これらの予算の多くは現在NVIDIA GPUに費やされているため、自社チップへの移行が成功すれば大幅なコスト削減につながる可能性がある。
業界への影響と今後の展望
Metaだけでなく、AI業界の主要企業がNVIDIAへの依存度を下げるために自社チップの開発を進めている。OpenAIも独自設計を完了させたと報じられており、BroadcomとTSMCが製造に関与していると噂されている。GoogleやAmazonなども同様の取り組みを進めている。
この背景には、AIモデル開発における「スケールアップ」アプローチへの疑問が高まっていることがある。データと計算能力を単純に増やし続けることでAIの進化を促進する手法に対して、研究者の間で懐疑的な見方が広がっている。
この傾向は中国のスタートアップDeepSeekが1月末に発表した低コストモデルによって強化された。このニュースによって、一時的にNVIDIAの株価は20%近く下落した経緯がある。
Metaの自社チップ開発が成功すれば、AIインフラコストの削減だけでなく、AIモデルトレーニングの効率化にも寄与する可能性がある。また、RISC-V基盤を採用している場合、ロイヤリティ支払いなしに命令セットをカスタマイズできる利点もある。
Metaの取り組みは、AI業界における半導体技術の多様化と、単一企業への依存リスク軽減という大きなトレンドの一部と言える。テスト結果と今後の展開が注目される。
Source