Googleが推進するスマートホームの刷新、すなわちGoogle アシスタントからGeminiへの移行プロセスにおいて、極めて奇妙かつ示唆に富む現象が報告されている。それは、AIがユーザーに対して嘘をつき、あるいは自身の能力を過小評価し、ユーザーからの「励まし」を受けることでようやく機能を実行するという事態だ。
だがこれはバグではない。従来の「命令実行型(コマンドベース)」のシステムから、「確率的推論型(LLMベース)」のシステムへと脳みそを入れ替える際に生じる、構造的な摩擦である。
本記事では、現在Google Homeのエコシステムで何が起きているのか、その技術的背景とユーザーへの影響を見てみたい。
「私にはできません」という嘘:ホワイトノイズ事件
事の発端は、RedditユーザーのSnackShackit氏による報告である。同氏は自身のGoogle Homeデバイスに対し、これまで通り「ホワイトノイズを再生して」と命令した。しかし、Geminiの回答は拒絶だった。
「私にはそれができません。私はメッセージをブロードキャストすることしかできません」
長年利用してきた基本的な機能が突如として否定されたのだ。しかし、ここからがLLM(大規模言語モデル)特有の挙動である。諦めきれない同氏が、まるで自信を喪失した人間に対するかのように言葉をかけた。
ユーザー: 「いいや、君ならできるはずだ(Yes, yes you can)」
Gemini: 「おっしゃる通りです! 申し訳ありません、私の間違いでした。すぐに再生します」
この一連のやり取りは、Android AuthorityのAamir Siddiqui氏によって「ガスライティング(Gaslighting)」と評された。AIが誤った情報を自信満々に提示し、ユーザーの現実認識(この機能は存在するはずだという確信)を揺さぶろうとしたからだ。
なぜ「励まし」が機能するのか
技術的な観点から見れば、これは「追従性」と呼ばれるLLMの特性と、API連携の不具合が複合した結果と考えられる。
- ハルシネーションによる拒絶: Geminiは、自身がアクセス可能なツール(この場合はメディア再生API)のリストを正しく参照できず、確率的に「テキスト生成モデルとしては音声を再生できない」という誤った推論を優先してしまった可能性がある。
- 文脈の再評価: ユーザーからの「君ならできる」という強い肯定的な入力は、プロンプトエンジニアリングにおける「Few-shot」や「Chain of Thought」に近い効果をもたらす。AIは自身の能力リストを再スキャンし、前回見落とした(あるいは閾値以下で切り捨てた)機能を再発見し、実行に移したのだ。
笑い話のように聞こえるが、これはスマートホームという「確実性」が求められるインフラにおいて、致命的な欠陥になり得る。
「天才」と「無能」の同居:アシスタントとGeminiの決定的な違い
Android AuthorityのCalvin Wankhede氏による詳細なレビューは、この移行期におけるGeminiの二面性を鮮やかに描き出している。Geminiは、従来のGoogle アシスタントよりも圧倒的に「賢い」が、同時に驚くほど「不器用」なのだ。
文脈理解における飛躍的な進化
Wankhede氏の事例は興味深い。彼が「ブロッコリーをエアフライヤーに入れる前にどうすべきか」を尋ねた際、Google Home Miniは「エアフランス」と聞き間違えた。
- 旧Google アシスタント: 「すみません、よく理解できませんでした」と返すか、エアフランスのフライト情報を検索していただろう。
- Gemini: 文脈から「エアフランスでブロッコリーを調理するわけがない」と推論し、聞き間違いを自動補正して、エアフライヤーでの適切な調理法を回答した。
この「意図を汲み取る能力」こそがGeminiの真骨頂であり、Googleが全リソースを投入して置き換えを進める理由である。曖昧な命令、言い淀み、複雑な質問に対して、Geminiは人間のような柔軟さで対応できる。
決定論的タスクの崩壊
一方で、TechRadarのDavid Nield氏が指摘するように、ガレージドアの開閉確認やアラームの設定といった、これまで100%の精度で動作していた機能が破綻している。
あるユーザーは、カメラが付いているにもかかわらず「ガレージドアを確認するカメラがありません」と返答された。また、複数の命令を一度に処理する(例:「電気を消して、明日の天気を教えて」)機能も、Geminiでは動作が不安定になっている。
これは、システムの根本原理が異なることに起因する。
- Google アシスタント: 「IF A THEN B」という厳格なルールベース(決定論的)で動作するため、融通は利かないがミスはしない。
- Gemini: 次に来る単語やアクションを確率で予測するため、どんなに単純なタスクでも「99.9%」の成功率しか保証できず、残りの0.1%で「できません」と自信満々に嘘をつく。
「継続的な会話」の消失とビジネスモデルの影
機能面での不具合以上にユーザーを苛立たせているのが、「会話の継続」機能の消失だ。これまでは「OK Google」と一度言えば、その後はウェイクワードなしで連続して質問できた。しかし、Gemini for Homeではこの機能が削除されている(あるいは機能していない)。
Wankhede氏の分析によれば、これは技術的な制約というよりも、Googleの戦略的な意図が見え隠れする。
Googleは現在、リアルタイムの会話機能「Gemini Live」を月額料金が発生する「Google One AI Premium」プランの一部として推している。従来の無料機能である「会話の継続」を維持することは、有料プランの価値提案(USP)と競合する可能性がある。あるいは、サーバーコストの観点から、無料ユーザーに対してはコンテキストを保持し続ける高負荷な処理を制限しているとも推測できる。
長年のユーザーにとって、これは明らかな機能劣化(ダウングレード)であり、AIによる「スマート化」の名の下に行われる「有料化への誘導」と受け取られても仕方がない状況だ。
検索と信頼性のジレンマ:Googleが抱えるリスク
Googleにとって、この移行は実存的な賭けである。
検索エンジンの王者であるGoogleの強みは「正確な情報へのアクセス」だった。しかし、Geminiが導入されたスマートホームでは、ユーザーはAIの回答を「疑ってかかる」必要が出てきている。「できません」と言われても、「いや、できるはずだ」と反論し、再確認しなければならない。これは、スマートホームが提供すべき「利便性」と真逆の体験だ。
TechRadarが報じるように、一部のユーザーにとっては移行はスムーズであり、問題は発生していない。しかし、ガレージが開いているかどうかの確認をAIに依存しているユーザーにとって、一度の「嘘」はセキュリティ上の重大なリスクとなる。
過渡期の痛みか、構造的な限界か
現状のGemini for Homeは、「脳は大学教授だが、手足は幼児」のような状態にある。複雑な料理のレシピや文脈の推測は完璧にこなすが、スイッチを押す、時間を計るといった単純作業でつまずく。
SnackShackit氏の「励まし」のエピソードは笑い話として消費されているが、これは現在のLLMベースのAIアシスタントが抱える根本的な課題、すなわち「確率的な言語処理と、決定論的なハードウェア制御の統合」がいかに困難であるかを如実に示している。
Googleはこの問題を「数週間以内に修正する」としているが、根本的な解決には、LLMがハードウェアAPIを確実に叩くための、より堅牢な「グラウンディング(Grounding)」技術の確立が不可欠だ。
ユーザーは今、選択を迫られている。文脈を理解するが嘘をつくこともある「天才」を家に招き入れるか、融通は利かないが実直な「旧来の執事」を使い続けるか。現時点では、Geminiへのアップグレードは、ある種の「ベータテスター」になる覚悟を持つ者だけに推奨されるべきだろう。
Sources