元OpenAIの最高技術責任者(CTO)であるMira Murati氏が率いるAIスタートアップ、Thinking Machines Labは10月1日、同社初となる商用サービス「Tinker」を発表した。Tinkerは、開発者や研究者が大規模言語モデル(LLM)を効率的にカスタマイズ(ファインチューニング)するためのクラウドベースAPIであり、現在プライベートベータとして提供されている。AI業界がモデルの性能競争から、その「応用」へと軸足を移す中、この動きは大きな注目を集めている。

AD

20億ドル調達のAIユニコーン、満を持して始動

Thinking Machinesは、2025年2月にMurati氏によって設立された、AI業界で最も期待されるスタートアップの一つだ。 Murati氏はOpenAI在籍中、ChatGPTや画像生成AI「DALL-E」シリーズの開発を監督した実績を持つ重要人物であり、彼女の独立は業界に大きな衝撃を与えた。 チームには、OpenAIの共同創業者でありチーフサイエンティストとして参画したJohn Schulman氏をはじめ、同社の元スタッフが多数名を連ねる。

その期待感は、資金調達の規模にも如実に表れている。当初10億ドルを調達していると噂されたが、2025年7月にクローズしたシードラウンドでは、その倍額となる20億ドル(約3000億円)を確保。評価額は120億ドル(約1.8兆円)に達した。 このラウンドはAndreessen Horowitz (a16z)が主導し、NVIDIA、AMD、Accelといった半導体大手やトップティアのベンチャーキャピタルが参加しており、同社の技術力と将来性に対する市場の強い信頼を示している。

Murati氏は創業時、ユーザーが特定のニーズに合わせてAIを適応させること、安全で高性能なAIの基盤を築くこと、そしてモデルやコードの公開を通じて「オープンな科学」を促進することをビジョンとして掲げていた。 今回発表されたTinkerは、まさにそのビジョンを具現化する第一歩と言えるだろう。

開発者の「足枷」を外すAPI「Tinker」

Tinkerは、単なるファインチューニングサービスではない。その本質は、AIモデル開発における最も煩雑でコストのかかる部分、すなわち分散コンピューティング環境の構築やGPUリソースの管理といったインフラの複雑さを徹底的に抽象化することにある。

「Tinkerは、実験やトレーニングのパイプラインを記述するためのクリーンな抽象化を提供しつつ、分散トレーニングの複雑さを処理することで、研究者に最先端のツールをもたらします」と、Murati氏はソーシャルネットワークXへの投稿で述べている。

具体的に、TinkerはPythonネイティブなAPIとして提供される。これにより開発者は、使い慣れたプログラミング言語で、損失関数やトレーニングループ、データワークフローといったアルゴリズムの核心部分を細かく制御できる。 実際の重い計算処理はThinking Machinesが管理するGPUクラスター上で実行され、エラーが発生した際には自動で復旧プロセスが作動する仕組みだ。

これは、データをアップロードすれば自動でモデルが完成するような「ブラックボックス型」のサービスとは一線を画す。Tinkerは、アルゴリズムの主導権を開発者の手に取り戻し、純粋な研究開発に集中できる環境を提供する。元Tesla AI責任者であるAndrej Karpathy氏は、この設計思想を「既存のパラダイムと比較して、複雑さを切り分ける場所がより巧妙だ」と高く評価している。 彼の分析によれば、Tinkerは「インフラの苦痛の約90%を取り除きつつ、アルゴリズム制御の約90%をユーザーの手に残す」という絶妙なバランスを実現している。

LoRA技術がもたらすコスト効率の革命

Tinkerの効率性を支える中核技術が「LoRA(Low-Rank Adaptation)」である。 これを理解することが、Tinkerの革新性を把握する鍵となる。

従来のファインチューニングの課題

通常、事前学習済みの巨大なLLMを特定のタスクに適応させるファインチューニングでは、モデルの持つ数十億から数兆に及ぶパラメータ(モデルの振る舞いを決定する設定値)のすべてを再学習する必要があった。 これは膨大な計算リソースと時間を要し、結果として莫大なコストが発生する。いわば、巨大なビル全体をリフォームするような作業であり、専門部署を持たない企業や大学の研究室にとっては大きな障壁となっていた。

LoRAの仕組み

LoRAは、この「全体を書き換える」アプローチを根本から覆す。
LoRAでは、元の巨大なモデルのパラメータは凍結(固定)したまま変更しない。その代わり、オリジナルのモデルに「アダプター」と呼ばれる非常に小さな追加のパラメータ層を挿入し、学習対象をこのアダプターのみに限定する。

これは、ビルの構造躯体には手を付けず、内装や設備だけを入れ替えるリフォームに似ている。学習対象のパラメータ数が劇的に減少するため、必要なハードウェアリソースと学習時間が大幅に削減され、コスト効率が飛躍的に向上する。

さらに、TinkerではこのLoRAの特性を活かし、複数の開発チームが同じベースモデル(例えばLlama 3)をカスタマイズする際、その核となるパラメータを共有できる。 これにより、プロジェクトごとに巨大なモデルのコピーを持つ必要がなくなり、インフラ全体の効率も高まる。

Thinking Machinesは、このLoRAの活用を支援するため、一般的なファインチューニングのワークフローを実装したオープンソースのツールキット「Tinker Cookbook」も公開。開発者が数学問題の解決や外部アプリケーション連携といったタスクにモデルを最適化するのを容易にしている。

AD

最先端研究機関が証明するTinkerの実力

Tinkerはプライベートベータの段階ですでに、プリンストン大学、スタンフォード大学、カリフォルニア大学バークレー校、そしてAIの安全性研究で知られるRedwood Researchなど、世界トップクラスの研究機関で採用され、その有効性が証明されている。

  • プリンストン大学 Goedelチーム:
    数学の定理を形式的に証明するLLMのファインチューニングにTinkerを利用。わずか20%のデータを用いたLoRAによるチューニングで、全パラメータを学習させたモデルに匹敵する性能を達成した。 具体的には、MiniF2Fベンチマークにおいて「pass@32」で88.1%というスコアを記録。これは、より大規模なクローズドモデルをも上回る成果である。
  • スタンフォード大学 Rotskoff Lab:
    化学反応や物質の性質を推論するモデルの学習にTinkerを導入。化学物質の命名法(IUPAC)から化学式を導き出すタスクにおいて、強化学習を適用したところ、正解率がベースモデルの15%から50%へと劇的に向上した。 研究者はこれを「大規模なインフラ支援なしではこれまで到達不可能だった成果」と評している。
  • UCバークレー SkyRL:
    複数のAIエージェントが協調・競合する複雑な強化学習ループを実行。Tinkerの柔軟なAPI設計により、これまでインフラの制約で困難だった実験が可能になったという。
  • Redwood Research:
    研究者のEric Gan氏は、長文コンテキストにおけるAIの制御タスクで、Alibabaのオープンソースモデル「Qwen3-32B」を強化学習でトレーニングする際にTinkerを活用。「Tinkerがなければ、このプロジェクトに着手することはなかっただろう」と述べ、マルチノードでの分散トレーニングの障壁がいかに高かったかを語っている。

これらの事例は、Tinkerが単なる効率化ツールに留まらず、これまで計算資源の制約によって探求が難しかった新たな研究領域を切り拓く可能性を秘めていることを示唆している。

AI開発の未来とThinking Machinesの戦略

Tinkerの登場は、AI開発のエコシステムにいくつかの重要な問いを投げかける。

第一に、これはOpenAIが主導してきたクローズドなモデル開発に対する、オープンソース陣営からの強力なカウンターとなりうる。TinkerはLlama(Meta)、Qwen(Alibaba)など、特定の企業に縛られない多様なオープンソースモデルをサポートしており、開発者に幅広い選択肢を提供する。 これは、特定のAPIに依存するエコシステムからの脱却を促し、よりオープンで健全な競争環境を生み出す可能性がある。

第二に、AI開発の主導権が、巨大テック企業から個々の開発者や研究者の手に移る流れを加速させるだろう。Tinkerがインフラの障壁を取り払うことで、優れたアイデアを持つ小規模なチームや個人が、大企業と対等な土俵で革新的なモデルを生み出すチャンスが広がる。これは今後のAIアプリケーションの多様性を爆発的に増加させる起爆剤になると考えられる。

Thinking Machinesの共同創業者であるJohn Schulman氏が「私がずっと欲しかったインフラだ」と語り、哲学者Alfred North Whiteheadの「文明は、我々が考えずとも実行できる重要な操作の数を増やすことによって進歩する」という言葉を引用したことは象徴的だ。 Tinkerは、AI開発における「考えずとも実行できる重要な操作」を劇的に増やし、開発者をより創造的な領域へと解放しようとしているのである。

現在、Tinkerはウェイティングリスト形式でプライベートベータの参加者を受け付けており、ベータ期間中は無料で利用できる。 今後数週間以内に、使用量ベースの価格モデルが導入される予定だ。

Thinking Machinesは創業時、推論能力を持つマルチモーダル言語モデルの開発計画も発表している。 Tinkerは、外部の開発者や研究者に強力なツールを提供すると同時に、将来同社がリリースするであろう独自モデルのためのインフラ基盤を整備・検証し、広大な開発者コミュニティを先行して構築するための布石であるという見方もできる。20億ドルという巨額の資金を背景に、AI業界の新たな巨星は、静かに、しかし着実に次の一手を打ち始めている。


Sources