iOS 13.2 上線!來看新攝影功能 Deep Fusion 原理詳解

在 iPhone 開賣近兩週時間,對於 iPhone 11 系列相機的功能實測,從超廣角、前鏡自拍畫素、廣角、夜間模式等,佔滿開箱文版面,而「Deep Fusion 」(深度融合)功能在發表會上先預告,尚未直接在 iOS 13.0 出現,稍早推出的 iOS 13.2 開發者預覽版終於釋出。
蘋果在週一發表 iOS 13.1.2,已是 9 月 19 日推出 iOS 13 以來第三度更新,iOS 13.1.2 修正了部分相機 App 的問題以及其他漏洞,如今要帶來的新版 iOS 13.2 最讓人期待的就是「Deep Fusion」(深度融合),在發表會上雖然沒有詳細分析背後技術細節,不過蘋果行銷副總 Phil Schiller 評價它是「運算攝影狂科學」。‘’computational photography mad science”。
「Deep Fusion」(深度融合)是透過使用人工智慧和其他軟體處理,捕捉不同曝光的畫面再讓影像合併來提高圖像的清晰度,呈現細節更多的照片,比起原有的「智慧 HDR 」以及「夜間模式」,前者在光源極強的場景,後者在光源極暗的場景,「Deep Fusion 」更是適合光源中度至弱的場景。
關於背後的運作原理,首先,在使用第三顆望遠(長焦)鏡頭的時候,(相機介面上顯示焦段為“ 2x”)大部分都是使用 Deep Fusion,除非是在非常明亮的環境下才會啟用智慧 HDR。
至於超廣角鏡頭是不支援 「Deep Fusion 」和「夜間模式」,所以要得到更精細的照片,這兩顆鏡頭還是要透過智慧 HDR 取得,目前看來 Deep Fusion 主要是用在望遠鏡頭上。
Deep Fusion 目前無法透過自行設定來調整,相機會根據拍攝取景情形自行調整,對此,蘋果的解釋是希望讓用戶不需要花太多腦筋思考就能拍出好照片。
雖然乍看之下,智慧 HDR 和 Deep Fusion 的概念很像,但兩者的運作其實是不同的,Deep Fusion 啟動時,按下快門時相機快速抓取四張短曝光圖像、四張標準圖像,同時拍攝一張長時間曝光的照片捕捉細節。Deep Fusion 會選擇最精細的短曝光照片,與長時間曝光照片合併,深度融合融合了兩者,與智慧 HDR 相比,所有畫面的噪點處理方式不同,不過相較之下,拍攝花費的時間會增加,大約需要一秒,而相片檔案也會更大一些。
讓我們來看看一些實拍畫面:
蘋果喜歡用人像來展示攝影功能,不過只放一張無從比較,讓我們來看看其他實測:
變焦以後的效果如何,讓我們來看看:
打著 AI 拍照已非新鮮事,過去我們看到 Google 透過單鏡頭加上 Visual Core 核心達到強大的軟體相機,去年在 Pixel 加入 Top Shot、HDR+、夜視模式、Super Rez Zoom 等,這次 Apple 也算是做了最好的回應,決心將過去為人詬病的部分一次解決,實質上解法並不是外觀上看到的三鏡頭硬體升級,而是再有更大運算力運用於相機上的突破。
延伸閱讀:
核稿編輯:Mia