close

現在,來自華盛頓大學、UC伯克利、谷歌的最新論文Time-Travel Rephotography,將這些照片裡的歷史人物真實地展現在屏幕上。

比如,居裡夫人、愛迪生、林徽因……

放大瑕疵的老照片如何恢復

從黑白照片乃至畫像恢復人臉並不是什麼新鮮事,比如最近恢復兵馬俑、古代帝王的視頻在社交網絡大熱。

但是從古老照片恢復人臉要復雜得多。

我們先看一張著名作傢卡夫卡的還原照。Zhang等人恢復的照片粗看起來皮膚上有很多瑕疵,而“穿越相機”恢復的照片似乎自帶“磨皮”。

那麼是前一張恢復照片更加真實嗎?

事實並非如此,卡夫卡臉上的瑕疵是當年底片技術導致的。如果隻是簡單給黑白照片填色,那麼就不能充分表征舊膠片的特性和老化過程。

最早誕生玻璃感光底片隻對藍光紫外光敏感,1873年推出的新感光乳膠也隻對綠光和藍光敏感。

由於他們都缺乏對紅光的敏感性,造成瞭人物臉上的雀斑和皺紋被放大,嘴唇變黑。

所以我們今天來看林肯的原始照片,會發現林肯臉上呈現出很多誇張的皺紋:

1907年,對紅藍綠都敏感的全色底片誕生。所以1913年采用新技術拍攝的潘克斯特(時年55歲),臉部皮膚要幹凈和平整得多:

因此,恢復這些歷史照片不僅要考慮照片的模糊、褪色、噪點、低分辨率等問題,還要考慮不同老照片對顏色的感光差異。

而這款“穿越相機”相比之前的方法,在人物的還原上避免瞭當時技術造成的失真。

從StyleGAN2出發

對於1873年之前的照片,作者使用瞭藍光敏感模型,對於1873年至1907年的照片,手動在藍光敏感和正色底片之間選擇,然後在1907年以後拍攝的照片,則在所有模型中手動選擇。

作者利用StyleGAN2框架將舊照片映射到現代高分辨率照片的空間中,從而在統一的框架中實現所有這些效果。

作者使用其他彩色樣本圖像作為參考,它們與黑白圖像具有相似的面部特征,但包含高頻細節以及自然色和照明。為瞭進一步減小輸入圖像和現代人像之間的感知身份差距,他們還設計瞭特別適合於老照片的重建損失。

模型的結構如下:

1、同級編碼器

以低分辨率灰度參考圖像I作為輸入,生成具有真實顏色和相似面部特征的同級圖像Is。

2、同級顏色和細節轉換

為瞭進一步限制顏色和皮膚細節,使其與同級圖像匹配,模型引入瞭顏色轉換損失Lcolor強制StyleGAN2的ToRGB層輸出與同級圖像的相似性。

3、老照片的重建損失

為瞭進一步減小輸入圖像和現代人像之間的感知身份差距,作者特別設計瞭適合於老照片的重建損失Lrecon,它對老照片的缺陷具有魯棒性。

4、潛在編碼優化

將之前的所有損失函數疊加起來,以此進行優化,生成最終圖像?。

據作者介紹,生成這樣一張1024 x 1024的照片,需要在英偉達Titan X上運行10分鐘。

與其他幾種恢復老照片的方法相比,“穿越相機”的效果顯然有著更真實的觀感。

不過,“穿越相機”現在還存在著一些缺點。

首先是對在恢復人物發行與配飾方面存在著錯誤,或者會丟失細節。

另外,生成照片也非常依賴於統計圖像的選擇,如果選擇瞭和原照片不一樣的種族或性別,會造成黑人變白人、女人變男人。

arrow
arrow
    全站熱搜
    創作者介紹
    創作者 Ken641228 的頭像
    Ken641228

    Ken641228的部落格

    Ken641228 發表在 痞客邦 留言(0) 人氣()