Microsoftは、開発者向けカンファレンス「Build 2025」において、Windowsデバイス上でのAIアプリケーション開発を加速させるための新たな統合プラットフォーム「Windows AI Foundry」を発表した。これは、昨年発表された「Windows Copilot Runtime」を大幅に拡張し、リブランドしたもので、ローカル環境でのAIモデルのファインチューニング、最適化、デプロイを包括的に支援するものだ。
AI Foundryとは何か? Copilot Runtimeからの進化とMicrosoftの狙い
「Windows AI Foundry」は、Microsoftが「ローカルAI開発のための統合プラットフォーム」と位置づける新たな取り組みである。従来の「Windows Copilot Runtime」が提供してきたAI機能やWindows ML(Machine Learning)の基盤を継承しつつ、さらに強力なツール群とオープンなモデルアクセスを提供することで、開発者がWindows上でより高度なAI体験を容易に構築できるようにすることを目的としている。
MicrosoftがローカルAI開発に注力する背景には、いくつかの重要な要因が考えられる。まず、プライバシーとセキュリティの向上だ。機密性の高いデータをクラウドに送信することなくデバイス上で処理できるため、情報漏洩のリスクを低減できる。次に、コスト効率である。クラウドベースのAI処理にかかる継続的な費用を削減し、特にCopilot+ PCのような省電力なNPU(Neural Processing Unit)を活用することで、電力消費も抑えられる。そして、速度と信頼性である。ネットワーク遅延やクラウド同期の問題から解放され、リアルタイムに近い応答性やオフラインでの動作が可能になる。
Microsoftは、WindowsをAI開発の主要プラットフォームとしての地位を確固たるものにすることを目指しており、AI Foundryはその戦略の中核を担うものと言えるだろう。同社CEOのSatya Nadella氏がAI関連収益の急増(年間130億ドルと発表)に言及していることからも、AIがいかに重要な成長ドライバーであるかが伺える。
AI Foundryの核心機能:開発者をエンパワーする包括的ツール群
Windows AI Foundryは、開発者がAIモデルを効率的に扱い、アプリケーションに組み込むための多岐にわたる機能を提供する。
Foundry Local: 手元のマシンでAIモデルを自在に操る
Foundry Localは、開発者のローカルマシン上でAIモデルの探索、ダウンロード、テスト、実行を容易にするサービスである。
特筆すべきは、OllamaやNVIDIA NIMといったサードパーティ製のモデルカタログに加え、Microsoft自身が最適化したモデルも提供される点である。これにより、開発者は多様なオープンソースモデルにアクセスし、自身のプロジェクトに最適なものを選択できる。
Foundry Localは、デバイスのハードウェア(CPU、GPU、NPU)を自動的に検出し、互換性のあるモデルをリストアップしてくれるため、開発者は環境構築の手間を大幅に削減できる。winget install Microsoft.FoundryLocal というシンプルなコマンドでインストール可能で、CLI(コマンドラインインターフェース)やSDK(ソフトウェア開発キット)を通じて、ローカルサーバー上でモデルのテストやインタラクションを行える。興味深いことに、Foundry LocalはWindowsだけでなくmacOSもサポートすると報じられている。
Windows ML: ハードウェアの力を最大限に引き出す推論エンジン
Windows MLは、Windowsオペレーティングシステムに組み込まれた高性能なAI推論ランタイムである。これはDirectMLをベースに進化させたもので、AMD、Intel、NVIDIA、Qualcommといった主要なシリコンパートナーとの緊密な連携により、CPU、GPU、NPUといった多様なプロセッサー上でモデルの実行を最適化する。
開発者にとっての大きなメリットは、アプリケーションにMLランタイムやドライバ、ハードウェア固有の実行ファイルを同梱する必要がなくなることだ。Windows MLがクライアントデバイスのハードウェアを検出し、最適な実行プロバイダーを自動的に選択してくれる。さらに、将来的に新しいAIハードウェアが登場しても、Windows MLが必要な依存関係を最新の状態に保ち、新しいシリコンへの適応をバックグラウンドで行うため、開発者は互換性を気にすることなくアプリケーション開発に集中できる。
すぐに使えるAI API群と高度なカスタマイズ
Microsoftは、テキスト要約、リライト、画像からのテキスト認識、画像キャプション生成、画像の超解像といった一般的なAIタスクを簡単に実装できる、すぐに使えるAPI群を提供する。これらのAPIはCopilot+ PC上のNPUで最適化されており、ローカルで動作するため、コンプライアンス、プライバシー、セキュリティを確保しつつ、モデル構築や開発のオーバーヘッドを削減できる。
さらに注目すべきは、セマンティック検索APIの導入である。これにより、開発者はアプリケーションのカスタムデータを利用した自然言語検索や、RAG(Retrieval-Augmented Generation:検索拡張生成)シナリオを構築できる。これは、ユーザーが意図や文脈で検索し、より的確な情報を得られるようにする強力な機能であり、プライベートプレビューとしてCopilot+ PCで利用可能になっている。
モデルのカスタマイズに関しては、Microsoftの軽量言語モデル「Phi Silica」に対して、LoRA(Low-Rank Adaptation)を用いたファインチューニングがサポートされる。LoRAは、モデルのパラメータのごく一部だけをカスタムデータで更新する効率的な手法で、特定のタスクにおけるモデルの性能を、広範な能力を損なうことなく向上させることができる。この機能は、Snapdragon XシリーズNPUを搭載したデバイス向けにパブリックプレビューが開始されており、今後IntelおよびAMD搭載のCopilot+ PCでも利用可能になる予定である。
AI Toolkit for VS Code: 統合開発環境での強力サポート
AI Toolkit for Visual Studio Codeは、モデルの変換、量子化、最適化といったタスクを単一の場所で実行できるようにするなど、開発ワークフローをさらに簡素化するツールを提供する。LoRAを用いたPhi Silicaのトレーニングも、このツールキット内の「Fine Tuning Tool」メニューからアクセス可能である。
なぜローカルAI開発なのか? WindowsベースAIワークステーションの重要性

AI Foundryの登場は、ローカル環境でのAI開発の重要性が高まっていることを示唆している。前述のプライバシー、コスト、速度といったメリットに加え、Copilot+ PCのようなNPU搭載デバイスの普及が、この流れを加速させている。
Microsoftは、Windows Developer Blogの中で、AI開発に特化したWindowsベースのワークステーションの重要性を強調し、Dell、HP、LenovoといったOEMパートナーの最新機種を紹介している。
- Dell Pro Max Tower T2: Intel Core UltraプロセッサとNVIDIA RTX PRO Blackwell世代GPUを搭載。MicrosoftのPhi-4-miniモデル(51,760プロンプトのデータセットを使用)をLoRAでファインチューニングした際、3エポックを約2時間15分で完了。これはクラウドでの処理と比較して大幅な時間短縮とコスト削減に繋がるとされている。
- HP ZBook Ultra G1a 14”: AMD Ryzen AI Max PROプロセッサを搭載したCopilot+ PC。このモバイルワークステーション上で、700億パラメータを持つ大規模言語モデル「DeepSeek R1」をローカルで実行するデモや、画像生成AI「Stable Diffusion XL (SDXL)」とテキスト生成AI「Phi-4 Mini」を同時に高パフォーマンスで実行するデモが紹介された。
- Lenovo ThinkPad P14s Gen 6 / P16s Gen 4: AMD Ryzen AI PRO 300シリーズプロセッサを搭載したCopilot+ PC。2D/3D CADやコンテンツ制作、BIMモデリングといったプロフェッショナルな作業に対応する。
これらの事例は、パワフルなローカルハードウェアとAI Foundryのようなソフトウェアプラットフォームが組み合わさることで、AI開発の可能性が大きく広がることを示している。Canalysのレポートによれば、2027年までに市場に出荷されるPCの60%がオンデバイスAI機能を搭載すると予測されており、ローカルAIはまさに次世代コンピューティングの主戦場となりつつある。
開発者にとってのAI Foundry:何が変わり、何が期待できるか?
Windows AI Foundryの登場は、Windows開発者にとって多くの恩恵をもたらすだろう。
- 開発ワークフローの簡素化と迅速化: モデルの選択からデプロイまでのプロセスが合理化され、イテレーションサイクルが短縮される。
- 多様なハードウェアへの対応: CPU、GPU、NPUといった異なるハードウェアアーキテクチャを意識することなく、AIアプリケーションを幅広いデバイスに展開しやすくなる。
- イノベーションの加速: 高度なAI機能をより手軽にアプリケーションに組み込めるようになることで、新しいアイデアや独自のAI体験の創出が促進される。
- コストとプライバシーの管理向上: ローカル処理を優先することで、クラウドコストの削減とデータプライバシーの強化が期待できる。
AI Foundryが切り拓くWindows AIの未来
MicrosoftによるWindows AI Foundryの発表は、同社のAI戦略における極めて重要な一手と言えるだろう。これは単なる開発ツールの提供に留まらず、Windowsプラットフォームそのものを「AIファースト」なOSへと進化させ、開発者エコシステムを再活性化しようという強い意志の表れではないだろうか。
特に注目すべきは、ローカル処理への強いコミットメントである。クラウドAIとエッジAI(ローカルAI)は対立するものではなく、むしろ相互補完的な関係にある。AI Foundryは、そのハイブリッドなAI活用をWindows上でシームレスに実現するための基盤となるだろう。
今後の課題としては、サードパーティ製モデルのさらなる拡充、開発者コミュニティからのフィードバックを活かした継続的なプラットフォーム改善、そしてAI倫理やセキュリティに関するガイダンスの整備などが挙げられる。
しかし、AI Foundryが提示するビジョンは明確だ。それは、あらゆるWindowsデバイスがインテリジェントな機能を備え、開発者がその力を最大限に引き出すアプリケーションを容易に創造できる未来である。Copilot+ PCの登場とAI Foundryの整備は、Windowsが再びテクノロジー革新の震源地となる可能性を秘めていると言えるだろう。
Microsoftは、Azure AI FoundryというクラウドベースのAI開発プラットフォームも提供しており、ローカル(Windows AI Foundry)とクラウド(Azure AI Foundry)の両輪で、AI開発のあらゆるニーズに応えようとしている。
Windows AI Foundryは、開発者がAIの力を解き放ち、次世代のインテリジェントなアプリケーションを構築するための強力な追い風となることは間違いない。
Source