GoogleがAndroidデバイス向けにGemini LiveアシスタントのProject Astra機能の展開を開始した。この新機能により、ユーザーは画面やスマートフォンカメラからの映像をリアルタイムでAIと共有し、視覚的なコンテキストに基づいた質問や対話が可能になる。
Project Astraとは何か
Project AstraはGoogleがMWC 2025で発表した、Gemini Liveに視覚的な理解能力を追加するプロジェクトコードネームである。約1年前に初めてデモンストレーションされたこの技術は、スマートフォンの画面やカメラを通じてAIが「見る」ことを可能にし、リアルタイムで質問に答えることができる。
主に2つの機能で構成されており、スクリーン共有機能とリアルタイムカメラ機能がある。いずれもGemini Liveの拡張機能として提供され、AIとのより自然なインタラクションを実現する。
スクリーン共有機能の詳細
スクリーン共有機能では、ユーザーがGeminiオーバーレイを起動し、「Liveでスクリーンを共有する」ボタンを選択することで、スマートフォンの画面全体をGeminiと共有できる。現時点では単一アプリの共有はできず、画面全体の共有のみが可能だ。
この機能の利点は、AIが画面の内容を理解したうえで会話を継続できる点にある。例えば、ユーザーがChromeブラウザでWikipediaのGDP(国内総生産)のページを閲覧しながらGemini Liveを呼び出すと、表示されている内容について質問できる。数字の要約や経済用語の説明を求めることができ、さらには内容の読み上げや別の言語への言い換えなども可能だ。
リアルタイムカメラ機能
もう一つの主要機能であるリアルタイムカメラ機能は、完全なGemini Liveインターフェースを開き、ビデオストリームを開始することでアクセスできる。画面右下のボタンを使用して、前面カメラに切り替えることも可能だ。
Googleが公開したデモ動画では、ユーザーが新しく釉薬をかけた陶器に使用するペイントカラーを選ぶ際、カメラを通してGeminiにアドバイスを求める様子が示されている。AIがリアルタイムで視覚情報を処理し、状況に応じた提案を行うことができる。
提供デバイスと対象ユーザー
現在、これらの機能は一部のAndroidユーザーにのみ段階的に展開されている。主な対象はGemini Advancedサブスクリプション利用者(Google OneのAI Premiumプラン、月額2,980円から)となっている。
You can now share your screen (mobile) to Gemini Live?
byu/Kien_PS inBard
最初の報告はXiaomiスマートフォンとGoogle Oneサブスクリプションを持つRedditユーザーからのものだ。1月にGoogleは、Pixelおよび Galaxy S25シリーズの所有者が「Project Astra機能を最初に利用できる」と発表していたが、技術的には特定のデバイスに制限する理由はないと思われる。
iPhoneなど他のプラットフォームでの利用については、Googleはまだ拡張サポートについて言及していない。ただし、写真、ファイル、YouTubeビデオに対するTalk Live機能はiOSではまだ利用できない状況だ。
Googleの巻き返しが続く
これらの機能の展開は、AIアシスタント市場におけるGoogleの優位性を示す物と言えるだろう。AmazonがAlexa Plusの制限付き早期アクセスデビューを準備し、AppleがSiriのアップグレードを遅らせる中、Googleは視覚的な理解能力を持つAIアシスタントの実用化で先行している。
SamsungはBixbyを持っているものの、Galaxy S25シリーズを含む同社のデバイスではGeminiがデフォルトのアシスタントとなっており、ChatGPTの登場で一時はその地位が危ぶまれたGoogleだが、エコシステム戦略が上手く進んでいることは確かなようだ。
Sources