close

attack_workflow.png

加利福尼亞大學聖地亞哥分校的研究人員開發瞭一種技術,一種可以欺騙為檢測深層Deepfake假視頻而訓練的算法。計算機科學傢采用兩步法,將一個可檢測到的Deepfake偽造的每一幀視頻中插入一個 "對抗性案例"層,以創建一個幾乎無法檢測到的新假視頻,目的是盡可能簡單地操縱圖像,使機器學習系統錯誤地識別圖像。我們過去看到的一個例子是對抗性貼紙,甚至是用於欺騙自動車輛誤讀交通標志的電氣膠帶。然而,與交通標志的污損不同,UCSD的方法不會改變所產生的視頻的視覺外觀。這方面很重要,因為目標是同時欺騙檢測軟件和觀眾。

研究人員演示瞭兩種類型的攻擊--"白盒 "和 "黑盒"。白盒模式下,對抗行為人知道目標檢測模型的一切,而黑盒攻擊是指攻擊者根本不知道檢測Deepfake所使用的分類架構,目前看來這種方式相當有效,甚至可以騙過當下最先進的檢測系統。

Deepfakes自幾年前在互聯網上出現以來,已經激起瞭不少爭議。起初,主要是名人對自己的肖像出現在色情視頻中感到憤怒。然而,隨著技術的改進,很明顯,壞人可以利用它進行宣傳或有更邪惡的目的。

不少大學率先開發出檢測Deepfake的算法,美國國防部也迅速跟進。包括Twitter、Facebook和微軟在內的一些科技巨頭也一直在開發在其平臺上檢測Deepfake的方法。研究人員表示,對抗這種技術的最佳方法是對檢測系統進行對抗性訓練。

該小組在GitHub上發佈瞭幾個工作實例:

https://adversarialdeepfakes.github.io/

對於那些對技術細節感興趣的人,可以查看通過康奈爾的arXivLabs發表的論文:

https://arxiv.org/abs/2002.12749

arrow
arrow
    全站熱搜
    創作者介紹
    創作者 Ken641228 的頭像
    Ken641228

    Ken641228的部落格

    Ken641228 發表在 痞客邦 留言(0) 人氣()