Windows AI Foundryは、Microsoftが提供する最新のAI開発プラットフォームで、ローカル環境でのAIモデルの実行やカスタマイズを可能にします。特に、Foundry Localを利用することで、Windows上でAIモデルを簡単に導入・実行できます。以下に、Windows AI Foundryのインストール手順をご案内します。(Publickey)
✅ Windows AI Foundry(Foundry Local)のインストール手順
1. システム要件の確認
-
対応OS: Windows 10 (x64)、Windows 11 (x64/ARM)、Windows Server 2025
-
ハードウェア要件:
- 最小: 8 GB RAM、3 GBの空きディスク容量
- 推奨: 16 GB RAM、15 GBの空きディスク容量
-
対応ハードウェアアクセラレーション(任意):
- NVIDIA GPU(2000シリーズ以降)
- AMD GPU(6000シリーズ以降)
- Qualcomm Snapdragon X Elite(8 GB以上のメモリ)
- Appleシリコン
-
ネットワーク: 初回モデルダウンロード時にインターネット接続が必要(オフライン使用も可能)(Microsoft Learn)
2. Foundry Localのインストール
Windowsのターミナル(PowerShellまたはコマンドプロンプト)を開き、以下のコマンドを実行します。(Microsoft Learn)
winget install Microsoft.FoundryLocal
このコマンドにより、Foundry Localがインストールされ、ハードウェア構成に応じた最適な推論環境が自動的に設定されます。 (AI総合研究所)
3. 初めてのAIモデルの実行
インストール後、以下のコマンドでAIモデルを実行できます。
foundry model run phi-3.5-mini
このコマンドは、phi-3.5-mini
モデルをダウンロードし、実行します。ダウンロードには数分かかる場合があります。実行後、コマンドラインでモデルと対話できます。 (Microsoft Learn, Microsoft Learn)
🔍 補足情報
-
モデルの一覧表示: 利用可能なモデルを確認するには、以下のコマンドを使用します。
foundry model list
-
CLIヘルプの表示: Foundry CLIの全コマンドと使用方法を確認するには、以下のコマンドを使用します。
foundry --help
-
モデルの最適化: Foundry Localは、システムのハードウェアとソフトウェアの構成に最も一致するモデルバリアントを自動的にダウンロードします。たとえば、NVIDIA GPUを使用している場合、モデルのCUDAバージョンがダウンロードされます。GPUやNPUがない場合は、CPUバージョンがダウンロードされます。 (Microsoft Learn)
Windows AI Foundryを活用することで、ローカル環境でのAIモデルの実行やカスタマイズが容易になり、開発効率が向上します。さらに、OllamaやNVIDIA NIMsなどの他のモデルカタログとも連携し、多様なAIモデルへのアクセスが可能です。 (Windows Blog)
ぜひ、Windows AI Foundryを導入して、AI開発の新たな可能性を体験してください。