

iOS 16では複数の新しいAPIが導入され、開発者はアプリの機能を拡張できます。例えば、ロック画面ウィジェット、トランシーバー、インタラクティブマップ、天気データなどの新しいAPIがあります。興味深いことに、Appleは新しい複合現実ヘッドセットの噂が流れる中、Nearby Interaction APIもアップデートし、U1チップをARKitに統合しました。
近隣インタラクションAPI
iOS 14で導入されたNearby Interactions APIにより、開発者はiPhone 11以降に搭載されている超広帯域U1チップを活用できるようになります。デバイスの正確な位置情報と空間認識を可能にするU1チップは、iPhone同士の距離検出などに活用できます。
iOS 15とwatchOS 8では、Appleはこれらの機能をApple Watchにも拡張しました。Apple Watch Series 6以降にはU1チップが搭載されています。今年のiOS 16では、Nearby Interaction APIを扱う開発者にとって興味深い新機能が追加されます。ARKitを介してU1チップを拡張現実(AR)に統合する機能です。
WWDC 2022のセッションで同社が詳細を説明したように、iOSはすでにU1チップとARKitを組み合わせた高精度検索機能でAirTagの位置を特定しています。iPhoneのカメラとU1チップから提供されるデータを活用することで、「探す」アプリはユーザーをAirTagまで正確に誘導することができます。
開発者はU1チップとARKitを活用し、アプリ内で同様の体験を実現できるようになります。これにより、距離や方向に関する情報の一貫性と精度がさらに向上します。Appleによると、このAPIの最適なユースケースは、置き忘れたアイテム、興味のあるオブジェクト、ユーザーが操作したいオブジェクトなど、近くにある特定のオブジェクトへユーザーを誘導する体験です。
たとえば、アプリは、ユーザーが探している物体が目の前にあるのか後ろにあるのかをユーザーに伝えることができます。
U1、ARKit、そしてAppleのAR/VRヘッドセット

最近の複数の噂では、Appleが2022年後半か2023年初頭に新しい複合現実ヘッドセットをリリースすると示唆されている。この製品はWWDC 2022で発表されておらず、Appleはオープニング基調講演で拡張現実や複合現実について一言も言及しなかったものの、WWDCセッションではARとVRについて多くのことが語られている。
複数のカメラと、超広帯域チップを含む高度なセンサーを搭載すると予想されるこのデバイスは、正確な空間認識機能を備えていることは明らかです。新型ヘッドセットは公式発表されていないためSDKは存在しませんが、Appleは発表前に開発者にこの種のインタラクションに対応したアプリを準備するよう強く求めているようです。
アップルがiPhone 11に搭載されるU1チップを初めて発表した際、AirDropの高速化といった体験はほんの始まりに過ぎないと述べていました。U1は現在、Walletアプリでの車のキー操作やAirTagの検索などに使用されていますが、このチップはAppleの複合現実ヘッドセットにおいて重要な役割を果たすことは間違いありません。
関連して、iOS 16 では ARKit もアップデートされ、4K HDR ビデオと高度な室内スキャンのサポートが追加されました。これは AR/VR デバイスに向けたもう 1 つの重要なステップです。
havebin.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。