

Appleは、長らく噂されていた複合現実ヘッドセットをWWDC 2023の一環として発表すると広く予想されている。これは、Appleが少なくともWWDC 2017以来、拡張現実を称賛してきたため、一部の人にとっては驚きではない。AppleがiPhoneとiPadの開発者ツールを通じてヘッドセットで使用される技術の基礎を築き始めたのは、その頃だった。
Apple が、開発者が iPhone や iPad 上で没入型の体験を作り出すのに役立つ ARKit 拡張現実フレームワークを初めて導入したのはこのときです。
ARKitはその後数年間、Appleにとって非常に重要な技術となり、最後のライブ基調講演の多くを新しいAR機能の紹介とデモンストレーションに費やしました。ステージ上で仮想レゴセットを組み立てるための、まばらに置かれた木製のテーブルトップを誰が忘れるでしょうか?
Apple はこれらのツールを強調することで、自社のプラットフォームの将来の一部としての拡張現実技術の重要性を伝えました。
複合現実の未来に向けて設計され始めたのは、iPhone と iPad のソフトウェアだけではありません。iPhone と iPad のハードウェアも同様に、拡張現実の世界へのポータブルな窓として機能するよう進化しました。

AppleはFace IDとアニ文字(後にミー文字)機能の導入を皮切りに、iPhoneをAR機能向けに最適化し始めました。内部的には、iPhoneのNeural Engineを最適化し、ARを難なく処理できるようにしました。
iPhone のメインカメラには、月面を移動する月面探査車や周囲の状況を読み取る自動運転車のように、専用の LiDAR センサーも追加されました。
iPad Pro のハードウェア アップデートでは、背面カメラに LiDAR スキャナーを追加することにほぼ重点が置かれていました。
なぜでしょうか? もちろん、ポートレートモードでの写真のフォーカスや奥行きの感知に役立ちますが、仮想家具で部屋を飾ったり、実際にフレームがなくてもメガネを試着したりするための専用の iPad アプリもありました。

最初から明らかなのは、ARKitはiPhoneやiPadを通じた没入型体験を前提としていなかったということです。スマートフォンの画面は真の没入感を実現するには小さすぎますし、タブレットは重すぎて長時間の使用に耐えられません。
iPhoneやiPadのARは間違いなく役立ちます。ポケモンGOでは、現実世界でポケットモンスターを捕まえるという行為は、完全にデジタルな環境よりも、より刺激的です。教室で仮想の生き物を解剖する行為は、実際の内臓に触れるよりも、より歓迎されるかもしれません。
それでも、見ているデジタル コンテンツに実際に囲まれていると脳が信じてしまうほどの最も没入感のある体験には、ゴーグルが必要です。
ということは、ARやVRが皆の関心を集め、ヘッドセットがヒットするということでしょうか? iPhoneやiPadのARに対する反応は、Appleが問題解決のために解決策を提供しているという印象を受けることが少なくありません。
それでも、明らかに楽しい拡張現実体験がいくつかあります。

発表されたもののまだ発売されていないiPhoneやMacBookのあらゆる側面を見てみたいと思いませんか?おそらく多くの人がMac ProとPro Display XDRを初めて体験したのはARだったでしょう。
リビングルームに実物大の仮想宇宙ロケットを投影すれば、これらの機械のスケール感を実感できるでしょう。まるで宇宙船に乗っているかのように地球を振り返る仮想ロケット打ち上げを体験するのも、きっと爽快な体験になるでしょう。
拡張現実は、タイムトラベルしてT-Rexを現代に連れ戻すリスクを冒さずに、子供たちに恐竜を紹介する最良の方法でもあります。
ARKitに関しては、Appleは来月からヘッドセット体験開発に使用されるツールをさまざまな方法で公開構築しています。

まず、このフレームワークは、ARアプリの構築に必要なツール、API、ライブラリを開発者に提供する手段を導入しました。モーショントラッキング、シーン検出、光検知、カメラ統合など、ARアプリの導入にはあらゆる機能が不可欠です。
現実世界のトラッキングも重要な要素です。ARKitは、カメラ、ジャイロスコープ、加速度計などのハードウェアセンサーを使用して、Appleデバイスを通じて現実環境における仮想オブジェクトの位置を正確に追跡するために必要なツールを導入しました。
そして、顔トラッキング機能です。ARKitを使えば、開発者はAppleがAnimojiやMemojiの表情ミラーリングに使用しているのと同じ顔トラッキング機能を組み込むことができます。
AR Quick Lookは、先ほど触れたもう一つの技術です。AR体験では、製品などの仮想オブジェクトを現実世界の環境に配置するためにこの技術が使われます。これらのオブジェクトを適切に拡大縮小し、デバイスに対する相対的な位置を記憶することで、錯覚を作り出すことができます。
ARKitの最新バージョンでは、ユーザー間で持続的に共有できるAR体験のサポート、環境内のオブジェクトの検出、シーンから人物を遮蔽する機能に重点が置かれています。パフォーマンスも長年にわたり着実に調整されているため、ヘッドセットでの仮想現実(VR)および拡張現実(AR)体験を支えるコアテクノロジーは非常に堅牢なものとなっているはずです。

Appleのヘッドセットは、6月5日(月)にAppleが基調講演イベントを開始する際に初めて公式発表される予定です。9to5Macもこの特別イベントに参加予定ですので、包括的かつ詳細なレポートをお楽しみに。世界中のHTC ViveとMetaヘッドセットの成功をお祈りします。
havebin.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。