

AppleのWWDC25開発者セッションでは、基調講演や一般教書演説では触れられなかった興味深い情報が満載です。特に「What's new in SwiftUI」で簡単に紹介されたある情報は、visionOSの今後の方向性を示す最初のヒントとなるかもしれません。
数か月前、ブルームバーグのマーク・ガーマン氏は、AppleがVision Proヘッドセット2機種を準備していると報じました。1機種は現行モデルよりも軽量で手頃な価格を目指しており、もう1機種は有線接続式になると言われています。
開発中のもう一つのヘッドセットは、さらに興味深いものになるかもしれません。1月に、AppleがMacに接続するARグラスの開発を中止したと報じました。その代わりに、同社は現在Macに接続するVision Proを開発中です。この2つのアイデアの違いは、没入感の度合いです。中止されたデバイスは透明レンズを採用していましたが、現在開発中の製品はVision Proと同じアプローチを採用する予定です。
これらの製品がいつ発売されるか、あるいは発売されるのかどうかについては公式発表はないが、Apple はすでに有線バージョンの準備を進めているのかもしれない。
これは、macOS Tahoe 26 アプリが初めて、 と呼ばれるまったく新しいシーン タイプを使用して、Apple Vision Pro 上で直接 3D 没入型コンテンツをレンダリングできるようになるためですRemoteImmersiveSpace
。
macOSからvisionOSへ直接
CompositorService
この新しい機能は、SwiftUI の空間コンピューティングに対する進化するサポートの一部として言及されており、Apple がs フレームワークを macOS Tahoe 26 に導入しているという事実を活用しています。
このフレームワークにより、macOS Tahoe 26 で実行されている Mac アプリは、別の visionOS ビルドを必要とせずに、ステレオ 3D コンテンツを Vision Pro 環境に直接投影できるようになります。
を使用することでRemoteImmersiveSpace
、開発者はタップやジェスチャーなどの入力イベントや、空間インタラクションのためのホバー効果をサポートする没入型ビジュアルを作成できるようになりました。これにより、デスクトップアプリを完全な没入型環境に拡張することが可能になります。これらはすべてSwiftUIで実行でき、レンダリングを完全に制御したいユーザーのためにMetalとのより緊密な統合も実現されています。

さらに、SwiftUI チームは強力な空間レイアウトおよびインタラクション API も導入し、開発者がボリュームのある UI を作成したり、仮想のウォーターボトルを拾うなどのオブジェクト操作を可能にしたり、シーン スナップ動作を使用してより動的なインターフェースを実現したりできるようになりました。
実際には、これは macOS アプリが建築ウォークスルーから科学的な視覚化に至るまでの 3D 体験全体をシミュレートし、Mac で動作する Vision Pro 上でライブで実行できることを意味します。
その結果、Vision Pro を試してみたい、あるいは空間コンピューティングが主流になるかもしれない将来に向けて構築を始めたいと考えている macOS 開発者にとって、参入障壁が大幅に下がります。
技術的な詳細を詳しく知るには、Apple の「What's New in SwiftUI」セッションと Apple Developer Web サイトのドキュメントをご覧ください。
havebin.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。