

iPhone 14のベースモデル(およびその大型モデル)は今年もA15チップを搭載すると予想されていますが、ProモデルにはA16が搭載される見込みです。これは、iPhone 14 Proのパフォーマンスがベースモデルよりも大幅に向上する可能性があることを示唆しています。
iPhone 14 Proのパフォーマンスに関してそれが何を意味するかについては推測の域を出ませんが、少なくとも大まかな方向性を得ることは可能です…
Macworldのジェイソン・クロスが全力を尽くしてレビューしました。比較はすべてiPhone 13 Proとの比較です。
まず、チップ製造プロセスに関しては、推測する必要はありません。TSMCの最先端プロセスは、N4Pと呼ばれる第3世代5nmプロセスです。これにより、ある程度の性能向上が期待できますが、その効果は比較的控えめです。
N4P は、オリジナルの 5nm「N5」製造プロセスと比較して、パフォーマンスが 11 パーセント向上し、電力効率が 22 パーセント改善され、密度が 6 パーセント向上します。
しかし、より高速なメモリが搭載されると予想されています。3月にAppleのアナリストは、iPhone 14 ProモデルはLPDDR4からLPDDR5にアップグレードされると述べており、Digitimesも本日この報道を報じました。これは、AppleがM1 ProとMaxチップに搭載しているより高速なメモリです。
これにより、メモリ帯域幅が向上し、ピーククロック速度の向上と他のいくつかの改善を組み合わせることで、Apple は最大 15 パーセントのパフォーマンス向上を実現できる可能性があります。
クロス氏はARMv9のサポートの可能性について言及したが、GPUパフォーマンスについて話す前に、大きな違いはないと見ている。彼は、コアの追加、アーキテクチャの改善、そしてより高速なメモリへのアクセスによって、GPUパフォーマンスに関しては通常の改善が見られるだろうと考えている。
GPUパフォーマンスは25~30%向上すると期待できます。これは、過去数世代のAシリーズプロセッサとほぼ同等です。特に、メモリ帯域幅によって制限されているベンチマークやテストでは、この効果が顕著に表れます。
iPhone 14 Proには、最大限の処理能力を必要とする機能が1つあります。それは、8K動画撮影に対応した48MPカメラセンサーです。Kuo氏とアナリストのJeff Pu氏は、このセンサーがメインカメラに搭載されると予想しています。そのため、Cross氏は、パフォーマンス向上の大部分が画像処理とAIに注力すると予想しています。
48MPセンサーをただ載せるだけでは駄目です。画像信号プロセッサへのデータパスは、より広く高速なものにする必要があります。その画像プロセッサは、4倍のピクセル数を処理できなければなりません(そうでなければ、画像処理に4倍の時間がかかりますが、Appleがカメラの応答性を最優先していることを考えると、現実的ではありません)。[…]
つまり、この新しいカメラには、はるかに強力な画像信号プロセッサとNeural Engine(AIと機械学習タスク専用のハードウェア)が必要になる可能性が高いでしょう。AppleはiPhone 13 Proで導入されたシネマティックモードの改善を熱望しているはずです。例えば、現在は1080pまでしか解像度が上がりませんが、4Kにアップグレードするには、より多くの画像処理能力が必要になります。より自然な人工ボケや複数の被写体の追跡も同様に必要です。これらはすべて、Appleが画像プロセッサとNeural Engineを本格的に強化する十分な理由です。
これは、メモリ帯域幅の拡大によって恩恵を受けるもう 1 つの領域です。
LPDDR4xからLPDDR5への移行により、メモリ帯域幅は最大50%向上し、エネルギー効率にもプラスの影響を与えると予想されます。これ自体は特定のタスクの速度向上にはつながりませんが、3Dグラフィックスや画像/動画処理といった高帯域幅の処理に余裕が生まれるというメリットがあります。
全文を読むと面白いです。
写真: Efe Kurnaz/Unsplash
havebin.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。