Macアプリでライブ3DワールドをVision Proに直接送信

Macアプリでライブ3DワールドをVision Proに直接送信

Appleは今週開催されたWWDC 25のセッションで、空間コンピューティング開発者にとって大きなサプライズを披露しました。macOS Tahoe 26アプリはまもなく、Apple Vision Proヘッドセットにフルステレオスコピック3Dシーンを直接送信できるようになります。別途VisionOSをビルドする必要はありません。

9to5Macは、Appleの「What's New in SwiftUI」セッションでこの新しいRemoteImmersiveSpaceシーンタイプを発見しました。デモでは、Mac専用のSwiftUIプロジェクトがVision Pro上でデスクトップGPUのみで駆動する没入型環境を起動する様子が紹介されました。

これまで、Mac の仮想ディスプレイ モードでは、Vision Pro を超ワイド 2D モニターのように扱っていました。RemoteImmersiveSpaceさらに進化し、真のデュアルビュー レンダリングを新しい CompositorServices フレームワークにパイプすることで、ヘッドセットは、シーンがネイティブに実行されているかのように、深度、視差、空間オーディオを提示できます。

Apple Vision Proがオーストラリア、カナダ、フランス、ドイツ、イギリスで販売開始

開発者はインターフェースを一から書き直す必要はありません。Appleによると、ホバーエフェクトからジェスチャー入力まで、SwiftUIはすぐに使える状態でサポートされており、パワーユーザーはMetalを使いこなしてシェーダーやライティングを細かく制御できます。同じセッションでは、アプリがオブジェクトをテーブルにスナップしたり、ユーザーが自然な手の動きで仮想のウォーターボトルを持ち上げたりできる、新しい空間レイアウトAPIも発表されました。

実用的なアプリケーションは、建築ウォークスルーから分子モデリングまで多岐にわたります。Macで高負荷のレンダリングを処理、Vision Proでトラッキングと表示に集中できます。この分業により、既に堅牢なMacパイプラインを保有しているものの、VisionOS専用バージョンの開発を躊躇しているスタジオにとって、参入障壁が低くなる可能性があります。

この動きは、AppleがMacに接続して動作させる、より安価な有線Visionヘッドセットの試作機を開発中であり、すべてを自社製チップで動作させるのではなく、Macと接続する設計になっているという、ブルームバーグのマーク・ガーマン記者の主張を裏付けるものでもある。もしこの製品が実現すれば、RemoteImmersiveSpaceMacとの接続を正当化するソフトウェアの接着剤となるだろう。

デスクトップとヘッドセットが出会う場所

現時点では、この機能はXcode 26ベータ版に含まれており、macOS Tahoe 26とvisionOS 26の両方のベータ版が必要です。Appleは正式リリース時期を明らかにしていませんが、開発者はSwiftUIで新しいシーンタイプを有効にし、CompositorServicesフレームワークにリンクすることで、本日から実験を開始できます。

AppleはVision Proを「空間コンピュータ」と謳っています。一般的なMacアプリで没入型コンテンツを投影できるようになったことで、ついにその夢が現実のものとなり、デスクトップとヘッドセットの境界線が曖昧になり、Macがエンジンとなり、Vision Proが次に必要な世界への窓となる未来が暗示されます。

Knowledge Network