

高価でかさばるVision Proヘッドセットが一部の人にとっては魅力的であることは間違いないが、Appleの長期的な目標は、Apple Glassesと呼ばれる製品、つまり従来の眼鏡やサングラスと同等のフォームファクタと重量のものにAR機能を搭載することだと考えられている。
もちろん、これほど多くの技術をはるかに小型のデバイスに詰め込むのは大変な課題だが、スタンフォード大学の計算画像研究所の研究者らが、少なくとも解決策の一部を見つけたかもしれない…
アップルはすでに、目で画像を認識する方法を変えるための導波管と呼ばれる技術的アプローチに取り組んでいる。
ライトエンジンには、ホログラフィックまたは回折格子を備えた一連の光導波路が含まれており、光源からの光を移動させて適切な角度と位置でビームを生成し、スキャンミラーを照射します。その後、光は、回折格子が記録されたホログラフィックフィルム層を備えた追加の光導波路に送られ、プロジェクターの開口部を拡大し、ホログラフィックコンバイナに必要な投影位置に光を操作します。
スタンフォードが開発したのはこの技術の一種で、逆設計メタサーフェス導波路と呼ばれ、はるかに小さなスペースに収まるものだ。
The Verge の報道によると、その結果、標準的な眼鏡のフレームよりも少し大きい程度のユニットに収まるほど小型のデバイスで、リアルなカラー 3D 画像を投影できるホログラフィック コンポーネントの薄いスタックが実現しました。
ほぼ必然的に、その鍵の一部は AI です。
研究者らは、「かさばるコリメーション光学系の必要性を排除できる」独自の「ナノフォトニックメタサーフェス導波路」と、AIアルゴリズムを用いて画質を大幅に向上させる「学習済み物理導波路モデル」を開発したと述べている。研究によると、これらのモデルは「カメラからのフィードバックを用いて自動的に調整される」という。
スタンフォード大学の技術は今のところ、ベンチと3Dプリントのフレームに取り付けられた動作モデルを備えたプロトタイプに過ぎないが、研究者たちは、AppleのVision Pro、MetaのQuest 3などのかさばるパススルー型複合現実ヘッドセットも含まれる現在の空間コンピューティング市場に革命を起こそうとしている。
現在、Ray-Ban Metaの最新版をテスト中です。最近ソフトウェアがアップグレードされ、AIによるシーン認識機能が搭載されました。詳細は後ほどレポートしますが、一番印象に残ったのは、見た目も掛け心地もごく普通のサングラスと変わらないことです。重さを感じることは全くなく、友人でも特に特別なものだと気付いた人はほとんどいませんでした。
私にとって、これはビジョンテクノロジーの聖杯です。つまり、サングラスのように気軽に着用できるものに、Vision Pro テクノロジーをできるだけ詰め込むことです。そして、スタンフォードは私たちをまさにそれに近づけてくれたようです。
写真: アンドリュー・ブロッドヘッド/スタンフォード・コンピュテーショナル・イメージ・ラボ
havebin.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。