AppleのiPhoneはAndroidと比較して少ないRAMでも効率的に動作すると主張されており、ハイエンドのAndroidスマートフォンが12~16GB、場合によっては24GBのRAMを搭載するのに比較して、iPhone 15 Proモデルで8GB、標準モデルのiPhone 15では6GBとなっている。これまではそれでも問題なかったが、今になってこれがあだになって来たようだ。Appleの内部情報に詳しいアナリストのMing-Chi Kuo氏によると、iPhoneのRAMの少なさにより、オンデバイスでの大規模言語モデル(LLM)開発において、深刻な制約に直面しているという。
AppleのハイブリッドAI機能はRAM容量の制約のためという一面もあるか
TF International Securitiesのアナリスト、Ming-Chi Kuo氏はMediumに投稿した記事の中で、これまで報じられているようなAppleのAI戦略についてMediumブログで、読者からの質問に答える形で触れているが、その中で、AppleがクラウドベースとオンデバイスのLLMに取り組んでいるが、クラウドベースのLLMはトレーニングが難しく、膨大な開発時間が必要であると述べている。オンデバイスLLMに関しては、iPhone 16の8GB RAMにより進捗は最小限にとどまっているとのことだ。
私の最新の調査によれば、AppleはクラウドベースとオンデバイスのLLMを開発しています。しかし、AppleがWWDC 2024で市場の期待を大きく上回る開発進捗を発表する可能性は低いでしょう。クラウドベースのLLMはトレーニングに時間を要するし、オンデバイスLLMの開発は、iPhone 16の8GBのDRAMによって制限されているのが現状です。
LLMには大容量のRAMが必要となるため、スマートフォンにとっても多くのRAMを搭載する事はこれからのトレンドになっていく可能性があり、ある推定によれば、20GBのRAMを搭載するAndroidスマートフォンも今後は一般的になるだろうと言われている。これらのデバイスはオンデバイスLLMを実行するのに十分なメモリを持つことになる。対してAppleは、大規模言語モデルをフラッシュメモリに保存する方法を研究していると言われており、これによりAndroidより劣るRAM容量でもオンデバイスAIが可能になる可能性もある。
しかし、Kuo氏の最新の予測によると、Apple側の研究はまだ実用化には至っておらず、さらなる進展が必要であるという。これが、iPhone 15 ProとiPhone 15 Pro Maxが互換性リストに含まれている唯一の2つのデバイスである理由を説明しているかもしれない。最近、ユーザーがiOS 18の生成AI機能をオプトアウトできることが判明し、その機能は「Apple Intelligence」と呼ばれる予定であると報告された。
iPhone 17 ProとiPhone 17 Pro Maxでは12GBのRAMが搭載されるとも言われており、2025年のiPhoneではオンデバイスAI機能がより現実的になっているかも知れない。
Source
コメント