Apple Intelligenceは洗練されているように見えるが、何かが欠けている

Apple Intelligenceは洗練されているように見えるが、何かが欠けている

4分で読めます
| WWDC 25

Apple Intelligence は洗練されているように見えるが、何かが欠けているのだろうか?

画像クレジット: Apple

Apple Intelligenceは、今年のOS 26のほぼすべてのアップグレードの基盤となっています。メッセージとFaceTimeのライブ翻訳、よりスマートなショートカットの実現、そして開発者が初めてデバイス上の大規模言語モデルにアクセスできるようにするなど、Apple Intelligenceは大きな力を発揮します。さらに、Visual Intelligenceの刷新、Genmojiツールの拡充、そして言語サポートの拡張も予定されています。

しかし、その野心的な性能にもかかわらず、いくつかの主要機能がまだ欠けています。特に、誰もが期待していたSiriのパーソナライズ機能です。どう感じたらいいのか戸惑っていますか?正直なところ、私も同じです。しかし、判断を下す前に、実際に何が実現されていて、何がまだ実現されていないのかを詳しく見ていきましょう。

iOS 26、iPadOS 26、visionOS、macOS 26 の Apple Intelligence の新機能

メッセージ、FaceTime、電話でのライブ翻訳

ライブ翻訳-iOS-26

ライブ翻訳は、Appleがこれまでに開発したデバイス内AIの最も実用的な活用方法です。メッセージ、FaceTime、そして電話アプリでもリアルタイムで動作します。海外の人にテキストメッセージを送信する場合でも、通話する場合でも、Apple Intelligenceはサーバーにデータを送信する必要なく、テキストと音声を翻訳できます。

すべてはApple独自の言語モデルを用いてデバイス上で行われます。そのため、応答時間が速く、プライバシーも向上します。データはスマートフォンから一切出ないため、他の多くの翻訳ツールよりも安全です。これは、AppleがAIを活用して、個人情報を漏らすことなくコミュニケーションをよりスムーズにしていることを示す、最も明確な例の一つです。

画面上のアクションのためのビジュアルインテリジェンス

Apple Intelligenceは、あなたが話したり入力したりするだけでなく、画面に表示されているものも理解するようになりました。これは、これまで物体認識と画像理解に重点を置いていたVisual Intelligenceにとって大きな飛躍です。スクリーンショットをスキャンしたり、埋め込まれたイベント情報を検出したり、Google、Etsy、その他の対応アプリと連携して類似商品の購入をサポートしたりできるようになりました。

ChatGPTを直接呼び出して、画面に表示されている内容を分析したり説明したりすることもできます。コピー&ペーストする必要はありません。日時が記載されたチラシを見ている場合は、詳細をすべて入力したカレンダーイベントの作成をスマートフォンが提案してくれるかもしれません。これにより、画面から直接、日常のタスクを自動化できます。

メールの注文追跡のためのスマートサマリー

Apple Intelligenceが受信トレイをスキャンし、注文確認メールを自動的に追跡情報としてまとめます。また、これらの概要はApple Payの取引に限定されません。あらゆる販売店や通信事業者のメールにも対応しており、すべての配送状況を簡単に把握できます。

統合された注文概要はメールアプリ内で直接確認できるので、整理整頓と時間の節約に役立ちます。派手さはありませんが、特に荷物の追跡のためだけにメールを何度も切り替えるのにうんざりしている方には便利です。AppleのLLM(メール管理マネージャ)がバックグラウンドで静かに処理し、受信トレイをまるで苦労することなく整理整頓してくれます。

Genmojiと画像プレイグラウンド

Appleは、ユーザーによるGenmojiの作成と使用方法を刷新しました。既存の絵文字、独自の創作物、そしてプレーンテキストを組み合わせて、これまで以上に表現力豊かなカスタムビジュアルを作成できるようになりました。まるで絵文字に独自の個性を与えているかのようです。

一方、Image Playgroundでは、テキストプロンプトとクリエイティブツールを使って、一からイラストを作成できます。すべてデバイス上で実行され、新しいショートカット統合により、メニューを移動することなくこれらのツールを簡単に起動できます。このアップデートは主に楽しみのためのものですが、Appleのインテリジェンスが生産性だけでなく創造性も刺激することを示しています。

よりスマートで高機能なショートカット

iOS 26 では、ショートカットの AI が大幅に強化されます。Apple Intelligence では、メモの書き換え、メッセージの要約、別のアプリ内からの Image Playground の起動など、コンテキストに基づいて次に何をしたいかを提案するインテリジェントなアクションが導入されています。

また、ライティングツール専用のトリガーも新たに追加され、校正や書き直しを既存のワークフローに簡単に統合できるようになります。これらのトリガーは、ユーザーの作業内容に合わせて賢く適応し、効果的なショートカットを提案してくれるので、日々の業務で時間を節約できます。

開発者向け Foundation Models API

アプリに関するAppleのインテリジェンス

Appleは、新しいFoundation Modelsフレームワークを通じて、デバイス上の大規模言語モデルをサードパーティ開発者に公開します。これにより、生産性向上、健康管理、ソーシャルメディアなど、あらゆるアプリがユーザーのプライバシーを侵害することなく、Apple Intelligenceの機能を活用できるようになります。

さらに、すべてオフラインで、完全にプライベートで、無料で利用できます。Appleは、開発者にコアAIエンジンへのアクセスを提供することで、ローカルインテリジェンスを基盤とした革新的なアプリの新たな波を巻き起こせると確信しています。もしこれが成功すれば、iOSはクラウドサービスや常時接続に依存しない、よりスマートなツールの波を経験することになるかもしれません。

iOS 26、iPadOS 26、visionOS、macOS 26のApple Intelligenceに欠けているもの

Siriの大幅なアップグレード

アップルシリ

誰もが知らない重要な問題についてお話しましょう。多くの人が予想していたように、昨年導入された改良版でパーソナライズされたSiriは、今のところ登場していません。Appleはおそらく2026年に導入するでしょう。 

つまり、Siriは以前の質問を記憶したり、複数のステップが必要なタスクをサポートしたり、個人の状況に基づいて応答したりすることができなくなります。いくつかのアップデートは提供されますが、Appleが発表したような会話型で記憶力を強化したSiriではありません。現時点では、iOS 26のSiriは、従来の音声アシスタントのルールにほぼ準拠しています。

限定的なデバイスサポート

iPhone 17 Pro デュアル

Apple Intelligenceは依然としてiPhone 15 Pro、Pro Max、そしてそれ以降のモデルに限定されています。これは大きな制限です。昨年発売されたばかりの通常のiPhone 15でさえ対象外です。今年はサポートが充実することを期待していました。それ以前のモデル、あるいはベースモデルをお持ちの場合、デバイス上でApple Intelligenceを利用できません。

クロスプラットフォームのリアルコンテキスト

iPhone、iPad、Mac の Apple Intelligence

Apple Intelligenceは画面上の日付やイベントを識別し、カレンダーへの追加を提案しますが、フォーマットが明確で、内容が直接認識できる場合に限られます。フライト番号や時刻を手動でコピーしてカレンダーを開いても、何も起こりません。システムはアプリ間でセッションメモリを保持しません。

これが重要な制約です。Visual Intelligenceは表示されているものをスキャンしてそれに基づいて行動できますが、AppleのAIはまだタスクフローを追跡できません。狭い認識パターンに当てはまらない限り、アプリ間でコピー、検索、計画した内容を記憶できません。真の意味でアプリ間のコンテキスト認識は未だに実現されていません。

とはいえ、これはあくまで私の観察結果です。iOS 26またはiPadOS 26をダウンロードして、ご自身で試してみることをお勧めします。開発者向けベータ版は現在公開されています。変更点はすべて悪いわけではなく、もしかしたら私が少しばかりこだわっているだけかもしれません。しかし、一部の新機能は、存在しない問題を解決しようとしていることは認めざるを得ません。例えば、macOSのUI変更によって操作が複雑になっているなどです。

Knowledge Network