

Appleが「コンピュテーショナルフォトグラフィーのマッドサイエンス」と表現するDeep Fusion技術は、iPhone 11で初めて搭載されました。今ではiPhone 12と13に加え、iPhone SE 3でもサポートされています。iPhoneでDeep Fusionをオンにする方法、その仕組み、機能がいつ起動するかなどをご紹介します。
目次
- iPhoneカメラでDeep Fusionをオンにする方法
- Deep Fusion はどのように機能しますか?
- いつ効きますか?
Deep Fusionは、特定の条件下で自動的にバックグラウンドで動作する画像処理システムです。Appleによると、この機能により「低照度下でも、質感やディテールが劇的に向上し、ノイズが低減された画像」を生成できるとのことです。
iPhone のナイトモード機能やその他のカメラオプションとは異なり、Deep Fusion が使用されていることをユーザーに知らせる信号はなく、自動的に表示され、(意図的に)見えません。
ただし、超広角レンズを使用しているとき、「フレーム外の写真をキャプチャする」がオンになっているとき、および連写写真を撮影しているときなど、Deep Fusion が使用されないケースがいくつかあります。
Deep Fusion は iPhone 11、12、13、SE 3 でのみ利用できることに注意してください。
- 設定アプリを開き 、下にスワイプしてカメラをタップします
- フレーム外の写真のキャプチャがオフになっていることを確認してください
- 広角(標準)レンズまたは望遠レンズ(1倍以上)を使用していることを確認してください
- Deep Fusion は、写真撮影時にバックグラウンドで動作するようになりました (連写では動作しません)

Deep Fusion はどのように機能しますか?
Appleの元副社長フィル・シラー氏は次のように述べている。
では、これは何をしているのでしょうか?どうやってこのような画像を撮影するのでしょうか?準備はいいですか?これがその仕組みです。9枚の画像を撮影します。シャッターボタンを押す前に、既に4枚の短い画像、つまり4枚の二次画像が撮影されています。シャッターボタンを押すと1回の長時間露光が行われ、その後わずか1秒で、ニューラルエンジンが長い画像と短い画像の合成画像を分析し、その中から最適な画像を選び出します。すべてのピクセルを選択し、2400万ピクセルをピクセルごとに精査して、ディテールと低ノイズを最適化します。セーターに見られるように。これは驚くべきことです。ニューラルエンジンが出力画像の生成を担当するのはこれが初めてです。これは計算写真のマッドサイエンスです。
いつ効きますか?
AppleはThe Vergeに対し 、シームレスな体験を実現するために、Deep Fusionをユーザーから見えないようにしたと語った。
カメラアプリにもフォトロールにもインジケーターはなく、EXIFデータにも表示されません。Appleによると、これは意図的な設計で、ユーザーに最高の写真を撮る方法を考えさせたくないからだそうです。カメラが勝手に決めてくれるという発想です。
Deep Fusion がアクティブになる場合の詳細は次のとおりです。
- 明るい環境から中程度の明るさの環境では、広角(標準)レンズを使用するとスマート HDR が使用され、中程度から低程度の明るさのシーンではディープ フュージョンがアクティブになります(薄暗いシーンではナイト モードが自然に起動します)。
- 望遠レンズでは、非常に明るい場所での撮影を除き、通常はディープフュージョンが使用されますが、その場合はスマートHDRが引き継ぎます。
- 超広角レンズではディープフュージョンは有効にならず、代わりにスマートHDRが使用されます。
9to5Macのチュートリアルをもっと読む:
- iPhone:5G設定を変更してバッテリー寿命を延ばしたり速度を速めたりする方法
- 新しいApple Studio DisplayとPro Display XDRおよびLG UltraFineとの比較
- 新しい iPad Air と 11 インチ iPad Pro のどちらを購入すべきでしょうか?
- iPhone SE 3とSE 2、iPhone 11などを比較
havebin.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。