Appleが音声アシスタントSiriの大規模な刷新を計画していることが、BloombergのMark Gurman氏によって報じられた。同社はChatGPTやGoogle Geminiに対抗する次世代AIアシスタントの開発を進めており、社内では「LLM Siri」と呼ばれるプロジェクトが進行中だという。新システムは2025年のWWDCで発表されるiOS 19に搭載される見込みだが、実際の展開は2026年春になる予定のようだ。
次世代Siriで期待される機能
新たなSiriは、Appleが独自開発したAIモデルを基盤として、より自然な対話的インタラクションを実現する。具体的には、App Intentsを活用した第三者アプリとの連携強化により、ユーザーの文脈を理解しながらアプリ間での高度な操作が可能になる。例えば、空港での母親の出迎えといったシナリオでは、カレンダー、地図、メッセージなど複数のアプリを連携させながら、状況に応じた適切な支援を提供できるようになる。
テキストの要約・作成機能も大幅に強化される。Apple Intelligenceと呼ばれる基盤技術を活用することで、画面上の情報を理解し、ユーザーの意図に沿った文章生成や要約が可能になる。現行のiOS 18.2ベータ版ではChatGPTとの統合が試験的に導入されているが、新システムではApple独自のAIモデルを用いることで、よりプライバシーに配慮した形でこれらの機能が実現される。
また、現在の機械学習ベースのアプローチから大規模言語モデル(LLM)への移行により、Siriの対話能力は飛躍的に向上する。バックアンドフォースの会話が自然に行えるようになり、特に改良された音声入力インターフェースと組み合わせることで、より直感的なコミュニケーションが実現される。ただし、AIの「ハルシネーション」(誤った情報の生成)のリスクも存在するため、Appleは独自のアプローチでこの課題に対処していくとされている。
Appleのソフトウェアエンジニアリング上級副社長Craig Federighi氏は、The Wall Street Journalのインタビューで次世代Siriの差別化について言及している。同氏によれば、OpenAIの音声モードとSiriは異なる特性を持つという。「OpenAIのモードは量子力学について質問し、それに関する詩を書かせるのには適していますが、ガレージを開けたり、テキストメッセージを送信したりはできません」と説明し、実用的なデバイス制御機能を重視する方針を示した。
Xenospectrum’s Take
Appleの慎重なアプローチは、同社の品質重視の企業文化を反映している。iOS 18.1でのSiriデザイン刷新、18.2でのChatGPT統合など、段階的な機能強化を通じて、信頼性の高いAIアシスタントの実現を目指している。しかし、2026年春という展開時期はGoogleやOpenAIといった競合他社と比べて明らかに遅い。Appleはプライバシー保護と実用性のバランスを取りながら、どこまで革新的な機能を提供できるか、厳しい課題に直面することになるだろう。皮肉なことに、完璧を追求するAppleの職人気質が、AI革命の波に乗り遅れる要因となる可能性も否定できない。
Source
コメント