1分で読めます
| リンク

シネマティックモードはiPhone 13の大きな新機能の1つでした。Techcrunchとの新しいインタビューで 、 Appleの副社長Kaiann Drance氏とヒューマンインターフェースチームのデザイナーJohnnie Manzari氏が、その開発経緯を説明しています。
「動画に高品質の被写界深度をもたらすのは、ポートレートモードよりも桁違いに難しいことはわかっていました」とDrance氏は語る。「写真とは異なり、動画は撮影者に合わせて手ぶれも含めて動くことが想定されています。そのため、シネマティックモードを人物、ペット、物体などあらゆる被写体に機能させるには、さらに高品質の被写界深度データが必要になり、すべてのフレームに対応するためにも、その被写界深度データを継続的に取得する必要がありました。こうしたオートフォーカスの変化をリアルタイムでレンダリングするには、膨大な計算負荷がかかります。」A15 BionicとNeural Engineはシネマティックモードで多用されており、特にDolby Vision HDRでもエンコードする必要があることを考えると、さらに重要度が増す。また、ライブプレビューを犠牲にしたくなかった。ポートレートモードの競合機種のほとんどが、Appleの発表後何年もかけてリリースした機能だ。
チェックしてみてください: iPhone 13:シネマティックモードの制作過程