您的位置:首頁 >教育 > 正文

“換臉”也逃不過數(shù)字偵探法眼

2018-08-10 16:24:05 來源: 字號:

由人工智能技術(shù)合成的虛假視頻已達到幾可亂真的水平,美國國防部設(shè)立的研究項目現(xiàn)已開發(fā)出識別這些虛假視頻的首批工具。

制作虛假視頻的最常見技術(shù)是使用機器學習技術(shù)將一個人的臉換到另一個人的臉上。由此產(chǎn)生的視頻,也被稱為深度偽造(Deepfake)視頻,不僅制作簡單而且逼真度驚人,經(jīng)熟練的視頻編輯人員進行進一步調(diào)整后,還可使其看起來更加真實。

深度偽造視頻使用了被稱為“生成建模”的機器學習技術(shù),其允許計算機在生成具有統(tǒng)計相似性的假實例之前從真實數(shù)據(jù)中學習。最新的深度偽造技術(shù)擁有兩個神經(jīng)網(wǎng)絡(luò)——生成對抗網(wǎng)絡(luò)(GAN),其共同工作可產(chǎn)生更有說服力的虛假視頻。

美國國防高級研究計劃局(DARPA)為此設(shè)立了“媒體鑒證”項目,以開發(fā)能識別深度偽造視頻的工具。該項目最初旨在實現(xiàn)現(xiàn)有鑒證工具的自動化,但最近將重點轉(zhuǎn)向了人工智能生成的虛假視頻。項目負責人馬修·特魯克表示,研究人員已在GAN操縱的圖像和視頻中發(fā)現(xiàn)了微妙的線索,從而使其能夠檢測到變化的存在。

紐約州立大學奧爾巴尼分校呂思偉教授領(lǐng)導的團隊開發(fā)了一種非常簡單的識別技術(shù)。研究人員在觀察深度偽造視頻時發(fā)現(xiàn),GAN技術(shù)生成的人臉很少眨眼,其一旦眨眼,眼球運動很不自然。這是因為,深度偽造視頻是基于對靜止圖像的訓練生成的,而靜止圖像的眼睛一般來說都是睜著的。

參與DARPA媒體鑒證項目的其他團隊也在探索自動捕捉深度偽造視頻的類似技巧,如奇怪的頭部動作、特別的眼睛顏色等。

達特茅斯大學數(shù)字鑒證專家漢尼·費瑞德認為,視頻偽造者和數(shù)字偵探之間的人工智能博弈才剛剛開始,機器學習系統(tǒng)經(jīng)訓練后往往可超越新的鑒證工具。呂思偉表示,熟練的偽造者可通過收集顯示一個人眨眼的圖像來繞過他的眨眼工具,但其團隊目前已經(jīng)開發(fā)出一種更有效的新技術(shù),要比偽造技術(shù)略勝一籌。(馮衛(wèi)東)

[責任編輯:]

版權(quán)與免責聲明: ①本網(wǎng)凡注明“稿件來源:本網(wǎng)原創(chuàng)”的所有作品。轉(zhuǎn)載請必須同時注明本網(wǎng)名稱及鏈接。 ②如若本網(wǎng)有任何內(nèi)容侵犯您的權(quán)益,請及時撥打電話1 5 6 0 0 5 7 2 2 2 9, qq:3 4 5 0 2 4 6 4 0,本站將會在24小時內(nèi)處理完畢,且不收取任何費用。 ③本網(wǎng)部分內(nèi)容轉(zhuǎn)載自其他媒體,目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點或證實其內(nèi)容的真實性。不承擔此類 作品侵權(quán)行為的直接責任及連帶責任。
[打印] [收藏] [關(guān)閉頁面] [發(fā)給好友]