Microsoft FoundryでmacOS上でAIモデルを構築可能に

Microsoft FoundryでmacOS上でAIモデルを構築可能に

1分で読めます
| ニュース

ファウンダリーローカル

Microsoftは、開発者がmacOS上で直接AIモデルを構築・実行するための扉を開きました。Foundry Localのリリースにより、macOSユーザーはクラウドへの常時接続を必要とせずに、高性能なオンデバイスAIアプリケーションを作成、管理、展開できるようになります。

Foundry Localは、Microsoftの新しいローカルAIランタイムスタックで、WindowsとmacOSの両方でプレビュー版が利用可能になりました。Azure AI Foundryのコアツールとモデルをマシンに導入することで、CPU、GPU、NPUをまたいで推論ワークロードを実行できるようになります。Apple Silicon上での完全なGPUアクセラレーションもその一つです。この移行により、オフラインでも強力なAI機能を利用できるようになります。

パフォーマンスを重視したクロスプラットフォームAI

Foundry Localは、Apple、Intel、AMD、Qualcomm、NVIDIAなどのチップメーカーとの緊密な統合によって最適化されたONNXランタイム上で動作します。最適なハードウェアパスを自動で選択するか、手動で設定することもできます。その結果、デスクトップ、ラップトップ、エッジデバイスなど、あらゆるデバイス向けのモデルを高速かつ効率的に実行できます。

DeepSeek R1、Phi-4、Qwen 2.5、Mistralといったエッジ最適化モデルを実行したり、Hugging FaceからカスタムONNXモデルをロードしたりできます。Foundry Local Management Serviceを使用すると、これらのモデルは手動でセットアップすることなく、実行時にダウンロードして実行できます。開発者は新しいFoundry CLIを使用してローカルツールやエージェントを制御したり、SDKやOpenAI互換APIを介して接続したりできます。このスタックは、Model Context Protocol(MCP)を使用したインテリジェントなローカルエージェントもサポートしており、アプリのよりスマートな自動化をデバイス上で完全に実現します。

macOSを使い始める方法

macOSへのFoundry Localのインストールは簡単です。ターミナルを開いて以下を実行してください。

brew tap microsoft/foundrylocal brew install foundrylocal foundry model run phi-3.5-mini

ローカルでモデルの実行を開始するには、これで十分です。

Microsoftの公式ブログによると、すでに100社以上の顧客がプライベートプレビューでFoundry Localを利用しています。SoftwareOne、Avanade、iLink Digitalなどの初期ユーザーは、エンタープライズワークフローにおける信頼性とハイブリッドAI機能を高く評価しています。

Foundry Localは、Macを高性能なAIマシンへと変貌させます。クラウドに依存せずに、パフォーマンスとデプロイメントを完全に制御しながら、高速でプライベートな、本番環境対応のアプリを構築できます。

Knowledge Network