

Appleは、最大20ストップのダイナミックレンジを実現する新しいイメージセンサー技術を研究しています。これはARRI ALEXA 35を凌駕し、平均的な人間の目のダイナミックレンジに非常に近いレベルです。これが実際に何を意味するのか、以下に説明します。
1,048,576:1
YMCinema Magazineが初めて発見した、新たに公開された特許「高ダイナミックレンジで低ノイズのスタックピクセルを備えたイメージセンサー」は、現在のプロ用映画カメラのダイナミックレンジに匹敵する次世代センサーに関する Apple の計画を明らかにしている。
この特許は、最大20ストップのダイナミックレンジを実現する積層型センサー設計の詳細を説明しています。ダイナミックレンジとは、ディテールを損なうことなく同時に捉えられる光の最大値と最小値の比です。ダイナミックレンジは「ストップ」という単位で測定され、1ストップは光の2倍または半分を表します。
したがって、20 ストップのダイナミック レンジは、実質的に、同じ画像で光や影が失われることなく、1,048,576:1 のコントラスト比を意味します。
測定が複雑なもの
参考までに、iPhone 16 Pro Maxセンサーのダイナミックレンジ仕様は公式には公開されていませんが、CineDによるiPhone 15 Pro Max 24mmカメラの包括的な推定値を以下に示します。これは、波形テスト(「ノイズフロアを超えて何ストップ識別できるか」)、IMATEST(「各ストップの信号対雑音比」)、ラティチュードテスト(「露出オーバーまたは露出不足時に色とディテールを保持するカメラの能力」)の3つの異なる手法を使用して測定されました。
結果:
「波形はノイズフロアより約11ストップ上を示しています。そういえば、ノイズフロアというものはほとんど存在しません。すべてが非常にクリーンで、内部で大規模なノイズ低減が行われていることが伺えます(これを「オフ」にすることはできません)。」
そして
ISO55では、「iPhone 15 Pro (Max) では、信号対雑音比(SNR)1で12ストップのダイナミックレンジが得られ、信号対雑音比2でも同じ12ストップのダイナミックレンジが得られています。これは、「スロープベースのダイナミックレンジ」でも同様です。これは、IMATESTが意味のある結果を算出するには明らかにノイズ処理が「過剰」であることを示しています。これは、一番下の「ノイズ(最大ピクセルの割合)」が表示されている図でも明らかです。シャドウストップのノイズ値は非常に低くなっています。
(…)
ISO1200 の場合:「IMATEST は、SNR = 2 で (より高い) 13.4 ストップ、SNR = 1 で 13.4 ストップを計算します。」
そして
ISO55では、「露出ラチチュードは5段分(3段上~2段下)です。これは、現在のコンシューマー向けAPS-Cまたはフルサイズカメラの露出ラチチュードと比べて、実際には2段分、場合によっては3段分も低い値です。前述のARRI Alexa Mini LFと比較すると、露出ラチチュードは5段分狭くなります。Alexa 35と比べると、その差は7段分にもなります。」
一方、ほとんどの推定によると、人間の目の瞬間的なダイナミック レンジは平均して 10 ~ 14 ストップ程度で、瞳孔と網膜の調整後は 20 ~ 30 ストップに達するようです。
新しい製品カテゴリーを生み出す可能性のある2層アプローチ
Appleはカメラセンサーに関しては長らくソニーに依存してきたが、この特許は同社がシリコンから自社内でさらに野心的な何かを作り上げている可能性を示唆している。
特許によれば、Apple のアーキテクチャは次の 2 つの層を組み合わせている。
- 光がフォトダイオードとカスタムアナログ回路を介して捕捉されるセンサーダイ
- ロジックダイ、ここで処理が行われ、内蔵のノイズ抑制機能も含まれる
YMCinema Magazineが指摘しているように、この積み重ねレイアウトは業界では全く新しいものではありません。ソニーも同様のものを採用していると報じられています。しかし、Appleのアプローチにはいくつかの工夫が凝らされています。
- まず、LOFIC (Lateral Overflow Integration Capacitor) と呼ばれるメカニズムが搭載されており、シーンの明るさに応じて各ピクセルが 3 つの異なる充電レベルにわたって光を蓄えることができます。
- 第二に、各ピクセルには独自の電流メモリ回路が搭載されており、熱ノイズをリアルタイムで測定・除去するため、後処理によるクリーンアップの手間が省けます。そして興味深いことに、Appleはこれを、より複雑でノイズの少ない4Tピクセル構造ではなく、3トランジスタ(3T)ピクセル構造で実現しています。
このReddit のディスカッションが理解を助けてくれるように、チップの上にセンサーを積み重ねることにより、Apple は基本的に各ピクセルに個別のシャッターを追加し、ダイから出力される前に画像のノイズ低減処理を行っています。
製品の観点から、これは何を意味するのでしょうか?
このセンサーが製品として出荷されれば、Apple はスマートフォンの競合他社だけでなく、ソニー、キヤノン、RED などのプロ用カメラメーカーも特定の主要指標で追い抜くことができるようになるかもしれない。
Neural Engine や、Apple の緊密なハードウェアとソフトウェアの統合によって可能になったその他の機能も加えると、Apple が iPhone の先を行き、「F1 The Movie」用に寄せ集めた安っぽい機器を超えて、本格的なカメラを独自に開発するだろうと想像するのは、それほど無理な話ではないだろう。
YMCinema Magazine は、これが何をもたらすかについて次のように考えています:
この技術が実装されれば(おそらく将来のiPhone 17 ProやApple Vision Pro 2に)、次のようなことが起こる可能性があります。
- モバイルデバイスでのシネマティックHDR
- リアルタイムのノイズフリービデオキャプチャ
- 非常に高い DR (20 ストップのダイナミック レンジ) を備えた超薄型フォーム ファクターでプロ品質のイメージングを実現
そして
ダイナミックレンジとノイズは、デジタル画像処理における2つの主要な制限要因です。20ストップのダイナミックレンジと高度なオンチップノイズ抑制機能を備えたモバイルまたはコンパクトセンサーは、単なる改善ではなく、革新的なものです。
これにより、次のような影響が生じる可能性があります。
- モバイルシネマトグラフィー
- HDRストリーミングコンテンツ
- AR/VRの視覚的忠実度
- コンパクトさと品質が両立しなければならないプロの映画制作キットでも
いつものように、特許は鵜呑みにしないようにしましょう
これは確かに興味深い話ですが、特許はあくまで特許です。Appleが実用化に至らなかった技術や製品の特許を登録してきたことは何度も見てきました。ですから、今回のような特許がすぐに出てくるとは期待しないでください。
YMCinema Magazineのオリジナル記事やRedditのコメントから判断すると、多くの技術的な疑問が未解決のまま残っており、その中には科学的に可能な範囲にまで達しているものもあるようです。カメラ愛好家は、最も熱心で細部にこだわる人々です。そのため、懐疑的な意見が出るのは当然のことであり、むしろ新たな視点を提供してくれるものとして歓迎すべきです。
それでも、Apple が自社のチップ製造技術に注目し、それを他にどこで活用できるかを模索しているのは興味深いことだ。
Appleはこれを実現できると思いますか? 興味がありますか? コメントで教えてください。
Amazonでエアタグのお買い得品
- エアタグ 4個パック:24%オフ、$74.99
- AirTag: 21%オフ、22.99ドル
- Apple AirTag ループ、ディープネイビー:36%オフ、19.29ドル
havebin.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。