2分で読めます
| ニュース

画像クレジット: Apple
Appleは、新しいApple Intelligenceを支えるAIモデルを外部の開発者にも利用できるようにすると発表した。WWDC 2025でクレイグ・フェデリギ氏が発表した最新のFoundation Models Frameworkにより、アプリはクラウドサービスに依存せず、API料金も発生せずに、デバイス上のAI搭載機能を統合できるようになる。
これまで、Appleのデバイス内AIは自社アプリに限定されていました。メールアプリはメールの要約、メモアプリはGenmojiの使用、メッセージアプリはアンケートの自動提案といった機能しか提供できませんでした。しかし、新しいフレームワークはそれを一変させます。クイズ、ビジュアル、生産性ツールといったタスクを扱うアプリは、軽量タスク向けの基本的な3Bパラメータモデルから、繊細な推論のためのより複雑な150Bモデルまで、様々なサイズのモデルを直接利用できるようになります。これらのモデルはiPhoneとiPadにローカルに保持されるため、プライバシーが保護され、オフラインでも使用できます。
フェデリギ氏はデモの中で、学習アプリでパーソナライズされたクイズを生成したり、アウトドアアプリで自然言語検索を完全にオフラインで実行したりといったユースケースの例を挙げました。セットアップは簡単に行えるよう設計されており、開発者はSwiftコードを数行記述するだけで、ガイド付き生成、分類、要約などの機能を呼び出すことができます。

この動きは、OpenAI、Google、さらにはサードパーティのLLMといったプラットフォームとのAI分野での急速な競争、特にSiriや生成AI機能全般のアップグレードがこれまで遅れてきたことへのAppleの回答です。同時に、macOS 26、iOS 26、iPadOS 26などのプラットフォームでは、ライブ翻訳、よりスマートなショートカット、画像作成ツール、拡張されたGenmojiといった組み込みAI機能がデビューします。しかし、サードパーティ開発者がモデルに直接アクセスできるようにしたことは最も注目すべき変更であり、Appleエコシステム全体でインテリジェント機能を真に民主化する可能性があります。
開発者は、来月のパブリックベータ版、そして今年の秋のOSアップデートと並行した正式リリースに先立ち、WWDCベータサイクルの一環として本日からテストを開始できます。これはささやかな一歩ですが、大きな意味を持つものです。スマートアシスタント、翻訳ツール、生産性向上ツールが、Appleのコアサービスに限定されることなく、あらゆるアプリで共通化されるようになるのです。
これがなぜ重要なのか
Appleのアプローチは、プライバシーを最優先とするAIを軸としており、すべての推論をデバイス内で完結させます。つまり、ユーザーデータはスマートフォンやタブレットから外部に漏れることがないため、プライバシーが保護され、オフラインでも利用できます。また、コスト面の障壁もなく、開発者はAPI料金を支払うことなくこれらのAI機能を統合できます。これにより、小規模なチームやインディー開発者は、クラウドインフラに依存せずに、アプリにインテリジェントな機能を容易に組み込むことができます。
デモは教育や生産性向上のシナリオに焦点を当てていましたが、その影響ははるかに広範囲に及びます。現在利用可能なツールにより、サードパーティ製アプリにおけるスマートアシスタント、翻訳ヘルパー、自動化されたワークフローの増加が見込まれ、その多くは機能とユーザーリーチにおいてApple製品に匹敵する可能性があります。