Bloombergの報道によれば、Appleは今年後半のiOS 19アップデートで、AirPodsユーザーが対面での会話をリアルタイムで翻訳できる新機能を導入する計画のようだ。この機能により、異なる言語を話すユーザー間のコミュニケーションがシームレスになり、国際的な交流の障壁が低減される可能性がある。
リアルタイム翻訳機能の仕組みと対応デバイス
BloombergのMark Gurman氏によると、この新機能は「対面での会話」をリアルタイムで一方の言語から他方の言語に翻訳する。具体的な動作例として、英語を話すユーザーがスペイン語を話す相手と会話する場合、iPhoneはAirPodsのマイクを使用してスペイン語の音声を拾い、自動的に英語に翻訳してAirPodsを通じて英語話者に伝える。逆に、英語話者の返答はiPhoneがスペイン語に翻訳し、iPhoneのスピーカーから再生される仕組みとなる。
この翻訳機能は現行のAirPodsモデルで利用できる見込みだが、全ての世代で可能というわけではなく、最新世代のAirPods Proに限定される可能性もある。過去の例では、iOS 18で導入された聴覚健康機能が第2世代AirPods Proにのみ提供されたという前例がある。
Bloombergによれば、この機能は2025年にiOS 19およびmacOS 16アップデートと共にリリースされる予定のようだ。約3か月後に開催予定のWWDCでは次期iOS関連の発表も予想されており、AirPods翻訳機能の詳細が明らかになる可能性もある。
競合他社の類似機能との比較
ライブ翻訳機能に関しては、実は目新しい物ではなく、Appleはすでに先行する競合他社を追いかける形となる。Googleは2017年に最初のPixel Budsで既にライブ翻訳機能を導入しており、2022年のPixel Buds Proでさらに機能を拡張している。
だが、SamsungもOneUI 6.1以降で同様の「ライブ翻訳」機能を提供しており、Meta(旧Facebook)やHumaneなどの企業もウェアラブルデバイスでの翻訳機能を試みているが、普及を後押しするほどの性能を見せてはいないのが現状だ。
Appleが高品質な翻訳機能を提供できれば、AirPodsの大規模なユーザーベースを活かし、この分野での競争力を高められる可能性がある。
AppleのOS刷新とAirPods開発の将来展望
この翻訳機能の導入は、AppleのiOS 19における大規模な更新の一部となる見込みである。Bloombergの報道によれば、iOS 19ではiPhone・iPadのオペレーティングシステムに新しいデザインが導入され、iOS、macOS、visionOS間でインターフェースの一貫性が高められるとされている。さらに、「ユーザーがデバイスをナビゲートおよび制御する方法を簡素化する」計画もあるという。
一方で、AppleはAI搭載Siriの遅延を発表し、「これらの機能を提供するには思ったより時間がかかる」と述べている。この遅延がAirPodsの翻訳機能にどのような影響を与えるかは不明である。
また、将来的には、Appleはカメラを内蔵したAirPodsの開発も検討している。これらのカメラはAIによるビジュアルインテリジェンス機能を利用し、iPhoneをポケットから取り出さなくても周囲の環境を分析できるようになる可能性もありそうだ。ただし、バッテリー持続時間や映像の伝送処理技術の進化が追いつかず、こうしたカメラ搭載AirPodsの実現はまだかなり先の話とされている。
Sources