Googleは同社の軽量言語モデルファミリー「Gemma」の最新ラインナップとして、「FunctionGemma」をリリースした。
パラメータ数わずか2億7000万(270M)という、現代のLLM(大規模言語モデル)の基準からすれば「極小」とも言えるこのモデルが示唆するのは、AI開発のトレンドが「巨大で何でも知っているチャットボット」から、「具体的で確実な行動(Action)を起こせるエージェント」へと完全にシフトしたという事実である。
本稿では、Googleが発表したFunctionGemmaの技術的詳細を紐解きつつ、なぜこのタイミングで「Function Calling(関数呼び出し)」に特化したエッジモデルが必要とされているのか、そしてそれがビジネスやアプリ開発にどのようなパラダイムシフトをもたらすのかを見ていきたい。
「会話」から「行動」へ:FunctionGemmaの正体
Google DeepMindおよび開発者チームが投入したFunctionGemmaは、2025年8月に発表された「Gemma 3 270M」をベースに、Function Calling(関数呼び出し)能力に特化してファインチューニングされたモデルである。
なぜ「Function Calling」なのか?
これまでの生成AI、特にチャットボットは「詩を書く」「コードを生成する」といったテキストベースのタスクには長けていた。しかし、実際のアプリケーションにおいて「明日のランチの予定をカレンダーに入れる」「部屋の照明を消す」「特定のデータベースから顧客情報を引く」といった外部ツールやAPIを操作するタスクにおいては、信頼性に欠ける側面があった。
FunctionGemmaはこの課題に対するGoogleの回答だ。このモデルは、ユーザーの自然言語(「ヒマワリに水をやって」など)を理解し、それをソフトウェアが実行可能な構造化データ(JSON形式の関数呼び出しコードなど)に変換することに特化している。
驚異的なパフォーマンス向上:58%から85%へ
特筆すべきは、その専門性による性能の飛躍だ。Googleが実施した「Mobile Actions」評価において、汎用的な小型モデルの信頼性がベースラインで58%に留まったのに対し、FunctionGemmaを用いたファインチューニング後のモデルは85%の正答率を記録した。

これは、「汎用的な賢さ」を捨て、「特定のタスクを遂行する確実性(決定論的挙動)」を選択することで、パラメータ数が数十倍のモデルに匹敵、あるいは凌駕する実用性を獲得できることを証明している。
エッジAIの新たな「交通整理役」:Compound Systemsの台頭
FunctionGemmaのリリースが示唆する最も重要な戦略的意味は、AIアーキテクチャが「モノリシック(一枚岩)」から「コンパウンド(複合的)」へと移行している点にある。
トラフィック・コントローラーとしての役割
FunctionGemmaは単独で動作するだけでなく、システム全体の「インテリジェントなトラフィック・コントローラー(交通整理役)」として機能することが期待されている。
- ローカル処理(Edge): ユーザーのスマートフォンやIoTデバイス(NVIDIA Jetson Nano等)上でFunctionGemmaが待機する。
- 即時実行: 「音楽を再生して」「画面を明るくして」といった単純かつ頻度の高いリクエストは、FunctionGemmaが即座に処理し、デバイス内で完結させる。
- クラウドへのルーティング: もしユーザーが「量子力学の歴史について教えて」といった深い知識や推論を要する質問をした場合、FunctionGemmaはそのリクエストを識別し、クラウド上のより巨大なモデル(Gemma 3 27BやGemini 1.5 Pro等)へパスする。
このアーキテクチャにより、開発者は「プライバシー」「レイテンシ(遅延)」「コスト」という3つの課題を同時に解決できる。すべてのデータをクラウドに送る必要はなくなり、機密性の高い個人情報(PII)はデバイス内に留まり、APIコストも劇的に削減されるからだ。
なぜ270Mでここまでできるのか
FunctionGemmaが270Mという極小サイズで実用的な性能を発揮できる背景には、いくつかの技術的要因がある。
1. 効率的なトークナイゼーション
Gemmaファミリー共通の256kという広大な語彙(Vocabulary)サイズを利用することで、JSONや多言語入力を効率的にトークン化できる。これにより、限られたコンテキストウィンドウ内でも複雑な構造化データを正確に扱うことが可能となった。
2. 統合されたアクションとチャット
このモデルは単にコードを吐き出すだけではない。「アクション(関数呼び出し)」と「チャット(自然言語要約)」の両方を理解するよう訓練されている。ツールを実行するためのコードを生成した後、その実行結果を受け取り、人間自然な言葉で「完了しました。他に何かありますか?」と応答するコンテキストスイッチが可能だ。
3. 広範なエコシステムのサポート
Googleはこのモデルを単体で提供するのではなく、開発エコシステム全体の一部として提供している。
- トレーニング: Hugging Face Transformers, Unsloth, Keras, NVIDIA NeMo
- デプロイ: LiteRT-LM, vLLM, MLX, Llama.cpp, Ollama
- ハードウェア: モバイル端末、NVIDIA Jetson、ブラウザ(Transformers.js経由)
特にWebブラウザ内で完結する物理演算パズル「Physics Playground」や、完全にオフラインで動作する農業ゲーム「TinyGarden」のデモは、サーバーレスで高度なインタラクションが可能であることを視覚的に証明している。
ビジネスと開発者へのインパクト:何が変わるのか?
このリリースは、企業のAI戦略にどのような影響を与えるのだろうか。
「信頼性」の獲得
金融アプリや業務システムにおいて、AIが「創造的」であることは時としてリスクになる。FunctionGemmaのような特化型モデルは、ハルシネーション(嘘の生成)を抑え、決められたAPIを正確に叩くという「信頼性」を提供する。これは、エンタープライズ導入における最大の障壁を取り除くものだ。
プライバシーファーストなUXの構築
医療データや個人のスケジュールなど、クラウドに上げたくないデータを扱うアプリにとって、オンデバイスで完結する音声アシスタントや自動化エージェントを構築できる点は決定的な差別化要因となる。
ライセンスの留意点
FunctionGemmaは「オープンモデル」として提供されているが、OSI(Open Source Initiative)が定義する厳密な「オープンソース」ではない点には注意が必要だ。Gemma利用規約に基づき、商用利用や再配布は許可されているが、有害な使用(ヘイトスピーチやマルウェア生成など)に対する制限や、Googleによる規約更新の権利が留保されている。一般的なスタートアップや企業にとっては十分に寛容だが、厳密なコピーレフトを求めるプロジェクトでは確認が必要である。
AIは「ポケットの中」で完成する
2025年、Gemmaファミリーのダウンロード数は1億から3億へと急増した。FunctionGemmaの登場は、このモメンタムをさらに加速させるだろう。
私たちは今、「チャットボットの時代」から「エージェントの時代」への移行期にいる。それは、AIが単なる話し相手から、私たちの手足となってデジタル世界を操作するパートナーへと進化することを意味する。そしてその進化は、巨大なデータセンターの中だけでなく、私たちのポケットの中にあるスマートフォンや、リビングのスマートデバイスのエッジ(端)でこそ、最も力強く進行しているのである。
開発者にとって、FunctionGemmaは単なるツールではない。それは、プライバシーを保護しつつ、ユーザーの意図を即座に行動へと変換する、次世代アプリケーションのための「新しい脳」なのである。
Sources