大規模言語モデル(LLM)の商用運用で最大の利益圧迫は推論コストだ。ユーザーからの問い合わせが増えるほどGPUが稼働し、電力代・ハードウェア代が膨らむ。年間収益ランレート300億ドル超に達したAnthropicでさえ、この「成長の逆説」を抜け出せていない。使われれば使われるほど推論コストが利益を食う構造は、売上高が倍増しても変わらない。そのAnthropicが今、2026年5月時点でテストチップを1枚も製造していない英国のスタートアップFractileと、AI推論チップ調達に向けた初期交渉を進めていることをThe Informationが報じた。
なぜAnthropicはAIチップの自前調達を急ぐのか
現在、AnthropicのチップはNVIDIA GPU・Amazon Trainium(Project Rainier)・Google TPUという3系統に分散している。2026年4月にはBroadcomを経由してGoogle TPUを2027〜2031年にかけて3.5GWぶん調達する契約を確定させ、規模による価格交渉力も確保した。このマルチベンダー体制は、特定ベンダーの意向に調達条件を左右されないための構造的な選択だ。AMD GPUの検討が並行して進む背景も、このベンダーロックインへの警戒と同じ文脈にある。
3系統の共通点は、いずれも大手プラットフォームへの依存だという点だ。Google TPUはGoogle自身のインフラと深く結びついており、供給条件はGoogleの戦略次第で変わる。AmazonのTrainiumについても同じことが言える。NVIDIAのGPUはデータセンター向けには圧倒的な汎用性を持つが、推論専用設計と比べると電力効率の面で過剰設計の部分がある。3社いずれも「Anthropicのために最適化されたチップ」ではない。
年間収益が90億ドル(2025年末)から300億ドル超(2026年3月)へと急拡大する過程で、推論コストの絶対額も同じ速度で膨らんでいる。この規模になれば、専用設計のチップは技術的な選択肢ではなく経営上の必要条件に近づく。Fractileとの接触は、既存3系統に続く「第4の調達トラック」の候補として位置づけられる。
Memory Compute Fusionとは何か:DRAMを捨ててSRAMをオンダイに統合する
LLM推論の速度ボトルネックは演算能力より先にメモリアクセスに現れる。GPUはモデルの重み(数十〜数百GB)をDRAMから繰り返し引き出し、演算してまた次のデータを引き出すというサイクルを回す。このプロセッサとメモリ間の往復がスループットの上限を決め、業界では「メモリウォール」と呼ばれる。H100のような最新GPUでも、演算ユニットをフル稼働させるだけのメモリ帯域幅を確保することが難しい。
Fractileが提案するMemory Compute Fusion Architecture(メモリ計算融合アーキテクチャ)は、SRAM(スタティックRAM)を演算ユニットと同じシリコンダイ上に直接統合することでこの往復をなくす。SRAMはDRAMより数十倍高速だが、容量あたりの面積コストが高いため従来は大容量メモリとしては採用されてこなかった。Fractileの設計は、「容量の制約は受け入れ、帯域幅の制約を排除する」というトレードオフの組み替えだ。LLMの推論がモデル全体を常時保持する必要はなく、推論フローに必要な部分をオンダイに載せれば十分という前提に立つ。
同じ方向性の先行者がGroqだった。「LPU(Language Processing Unit)」と呼ぶオンチップメモリ前提の設計で、NVIDIA GPUより大幅に低レイテンシーな推論を実現し、AI企業のAPIインフラとして使われてきた。Groqをその技術ごとNVIDIAが2025年12月に約$200億で買収した。Pat Gelsinger(元Intel CEO)がFractileの設計を「radical approach(根本的な新アプローチ)」と評して投資家・顧問に就いているのは、この系譜を知る人物が技術的連続性を認めた判断とも読める。
「25倍速・コスト10分の1」の数値が変わった経緯と現在地
CEO Walter Goodwin氏が2024年7月にFortuneに述べた初期主張は「Llama2-70BでNVIDIA GPUより100倍速く・10倍安く」というものだった。これは実チップ製造前の理論値であり、シミュレーションに基づく数字だった。現在、同社の公式サイトが掲げるのは「25倍速く・コスト10分の1」だ。エネルギー効率については既存AIハードウェア比でワット当たり性能20倍という数値も公表されている。
理論値のシミュレーションでは最適条件下での上限が出る。実際のチップ設計に落とし込む過程で、製造上の制約・電力バジェット・メモリ容量の現実的な範囲が織り込まれ、主張が収束した。100倍から25倍への変化は、根拠なき誇大主張より信頼性が高い数字へと着地した結果だ。2026年5月時点でテストチップはまだ製造されておらず、商業化の目処は2027年頃とされる。
Anthropicが実測値の出ていないこの段階で交渉に動いた背景は、早期関与による優位の確保にある。テストチップが製造された後に接触するより、製造前のフェーズで技術仕様の方向性に関与できる可能性があるためだ。確定済みの大口調達(BroadcomのTPU契約)に加え、未実証の技術への少量・早期関与を重ねることで、2027年以降の推論インフラ選択肢を広げる戦略だ。
Fractileの実力:創業者・資金・チームが示すもの
Goodwin氏は28歳。オックスフォード大学博士課程出身で、2022年にロンドンでFractileを創業した。最初の資金調達先として以下の投資家をひきつけ、シードラウンドで1500万ドルを調達している。
- NATO Innovation Fund
- Kindred Capital
- Oxford Science Enterprises
NATO Innovation FundがシードSTAGEから参加していることは注目に値する。同ファンドは防衛・安全保障の観点から重要性が高い先端技術に投資する枠組みであり、このチップが軍事・安全保障の文脈でも評価されていることを示す。チームにはNVIDIA・Graphcore・Imagination Technologiesの出身者が加わっているとされ、英国の先端研究機関ARIA(Advanced Research and Invention Agency)が£500万の助成金を拠出している。
Arm共同創業者のHermann Hauser氏も投資家に名を連ねており、欧州半導体コミュニティでの認知度は創業3年のスタートアップとしては異例だ。英国のLiz Kendall科学技術大臣が同社を有望企業として言及し、英国政府の産業政策との接続も生まれている。現在、評価額$10億超でのユニコーン認定を前提に$2億の資金調達交渉中と報じられており、Founders Fund・8VC・Accelが候補投資家として挙げられているが確定ではない。この調達が成立すれば、テストチップ製造から量産体制構築という最も資本集約的なフェーズに入るための燃料になる。
Groq吸収・Cerebras独立・Fractile参入:2027年以降を決める三分構図
2025年12月、NVIDIAがGroqの資産を約200億ドルで買収したことで、独立した推論チップベンダーとして機能していた選択肢がNVIDIAの傘下に入った。AI企業にとってNVIDIAへの依存度がさらに上がるという危機感は現実的で、OpenAIが2026年4月にCerebrasから$200億規模のチップ調達を発表したのもこの構造変化への反応だ。
Cerebrasは現在3500億ドル評価でのIPO申請という独自の成長路線を進んでいる。OpenAIとの大型契約を結びながら独立した企業として市場に残るという立場は、独立チップベンダーとして機能しうる選択肢の数少ない一例だ。Fractileがそこに英国拠点・欧州資本・NATO関与という構成で加わってくることは、地政学的な多様化という観点でも意味がある。チップ調達をNVIDIA一社やGoogleのような巨大プラットフォームへの依存から脱することは、AI企業の経営自律性と直結する。
Groq吸収とCerebrasの独立路線、そしてFractile。この三つ巴の構図が2027年以降のAI推論インフラの選択肢を決める。AnthropicがFractileとの交渉を「初期段階」のまま続けているのは、技術的実証が出る前に「NVIDIA以外の推論チップ」調達の地盤を確保しようとする動きだ。実現すれば、$300億超の規模で推論コストと戦うAnthropicの利益構造に直接影響する。