麻豆国产精品免费视频,午夜性开放视频久久…爽,青青青国产在线观看免费2020,综合在线欧美精品第1页

  • <center id="gac44"></center>
    <code id="gac44"></code><dfn id="gac44"><dl id="gac44"></dl></dfn>
    <menu id="gac44"><abbr id="gac44"></abbr></menu>
  • <rt id="gac44"><dl id="gac44"></dl></rt>
  • 首頁 > 延邊科協(xié) > 科普宣傳 > 以假亂真的AI換臉技術,真的毫無破綻嗎?

    手機版百姓熱線
    空白

    以假亂真的AI換臉技術,真的毫無破綻嗎?

    2021年06月01日 09:19

    出品:科普中國

    制作:之遙科普

    監(jiān)制:中國科學院計算機網(wǎng)絡信息中心

    從在圍棋界戰(zhàn)無不勝的“阿爾法狗”,到鋪天蓋地的“人臉識別”,機器學習給人們的生活帶來了翻天覆地的改變。但隨著AI技術的不斷發(fā)展,以“智能換臉”為主要展現(xiàn)結果的Deepfake技術,卻給大家的生活帶來了更多困擾。

    2018年,加蓬總統(tǒng)Ali Bongo因中風在公共視野中消失了數(shù)月。政府為了安撫民心,在新年時公開了一段總統(tǒng)錄制的新年致辭。這段新年致辭使用了Deepfake技術進行生成,但這個視頻非但沒有起到安撫民心的作用,反而讓軍方的資深大佬發(fā)現(xiàn)異常,最終導致了兵變。在這個事件中,“AI換臉”技術成為干擾政治選舉,降低政府公信力的一大推手。

    在很多人的印象中,Deepfake技術除了能讓有需求的人看到AI換臉的色情小視頻外,似乎都走在社會的陰影里。

    圖1 deepfake圖片

    (圖片來源:http://zkres1.myzaker.com/)

    對普通人而言,Deepfake技術可謂是以假亂真,毫無破綻。那面對網(wǎng)上流傳的真假不一的視頻,我們真的無法分辨嗎?

    不用擔心,正所謂“魔高一尺,道高一丈”。在專業(yè)人士手中,通過細致的計算機分析,可以辨別出照片、視頻的真假,讓Deepfake技術處理過的內(nèi)容“現(xiàn)出原形”。

    Deepfake技術的原理就是學習學習再學習

    要了解Deepfake技術如何被識破,首先就要了解什么是Deepfake技術。Deepfake是使用深度機器學習(deep machine learning)和假照片(fake photo)組合而成的一個詞,可以理解為機器進行深度學習而制造的假照片、假視頻等虛假產(chǎn)物。其中最常見的應用就是“AI換臉”,也就是將一個人的臉部移植到另一個人臉上。

    在進行換臉時,機器首先需要識別出人臉的位置。人臉的識別與校準在自動駕駛等領域也有著廣泛的應用,目前的發(fā)展已經(jīng)非常成熟,識別率在98%以上。

    換臉用的素材,與待換臉的視頻中的人臉,他們的面部朝向、面部表情往往不同。因此,識別出人臉位置之后,機器要進一步對人臉進行校準。通過尋找面部具有鮮明特征的區(qū)域,機器可以確定每一幀中人臉的朝向、表情,進而將待換臉視頻中需要插入的人臉與素材匹配起來。

    匹配完成之后,換臉技術也不是簡單地就把換臉素材貼在了待換臉的人臉上。簡單地貼圖,可以輕松地被肉眼識別,難以達到“以假亂真”的效果。Deepfake技術進一步地學習原理可以用人的行為來類比。

    如果你盯A臉看上100小時,接著去看B臉的照片;接下來讓你憑記憶畫出B的臉,那不管你的技術水平多高,最終都會畫的跟A臉很像。所以,當我們訓練機器,讓機器學習用A臉的元素畫出B臉時,就可以將A臉逼真地“畫到”B臉上。

    圖2 看B畫A

    (圖片來源:原創(chuàng))

    逼真的Deepfake技術也有小破綻

    機器學習出的換臉視頻、照片那么逼真,那Deepfake技術的破綻何在呢?

    中國有句古話叫做“若想人不知,除非己莫為”。換臉技術的破綻,就出在人臉素材的細節(jié)上。Deepfake技術使用A臉的元素來畫出B臉,這一過程是對A臉元素的精巧拼接。而這一拼接的過程,勢必不能完美地符合真實情況。

    紐約州布法羅-布法羅大學的計算機科學家,就從“眼睛”——這一人臉上最精致的元素入手,實現(xiàn)了對Deepfake技術的甄別。

    這一技術的核心原理基于眼球的反射。當外界環(huán)境的光照射到眼睛上時,就會產(chǎn)生反射,在角膜上生成圖像。在真正的照片中,兩只眼睛看同一物體,會具有非常相似的反射模式。但在Deepfake合成的照片中,兩只眼睛的反射內(nèi)容往往并不協(xié)調(diào)。很可能出現(xiàn)左眼“看見”一只小狗,右眼“看見”一輛卡車的情況。檢測機器首先提取兩只眼睛反射的內(nèi)容,然后檢測左右眼的反射內(nèi)容、反射光強度等參數(shù)是否協(xié)調(diào)統(tǒng)一,就可以識別出照片、視頻是否經(jīng)過了合成。這一方法已被證明具有94%的實驗有效性。

    除此之外,常見的檢測方法還包括:

    (1)根據(jù)視頻的2D圖像估計三維姿勢。使用Deepfake技術合成的視頻,三維姿勢可能會突然發(fā)生較大的突變。比如視頻中的人,如果在上一幀胸口還是鼓起正在吸氣的狀態(tài),下一幀就迅速變成胸口下沉吐氣的狀態(tài),那就說明這個視頻鐵定是合成出來的。

    (2)捕捉Deepfake技術在處理視頻時對圖像進行扭曲而在環(huán)境中產(chǎn)生的“偽影”。

    (3)捕捉左右虹膜異色、光照與陰影不協(xié)調(diào)、幾何建模錯誤等瑕疵。

    (4)針對名人的行為習慣,檢測視頻中是否有對應的特有行為特點(例如摸鼻子、歪嘴等)。

    圖3 deepfake視頻中的虹膜異色

    (圖片來源:知乎)

    Deepfake檢測中的“貓鼠游戲”

    在不斷發(fā)展的過程中,Deepfake的檢測技術仍然會面對不少挑戰(zhàn)。

    第一點是有的技術本身需要一定的信息量。例如前述的眼球反射檢測技術,如果視頻里沒有同時存在兩只眼睛,就無法應用。針對虹膜顏色的檢測,在視頻畫質(zhì)較低時使用起來也較為困難。

    第二點是,檢測技術和換臉技術是一個“不斷發(fā)展,彼此競爭”的過程。例如前述的捕捉光照與陰影不協(xié)調(diào)的問題,換臉者可以在換臉時使用更多的資源進行光照模擬、渲染,從而保證陰影的生成質(zhì)量。從這個角度講,檢測和換臉技術就像一場“貓鼠游戲”,二者不斷迭代,你追我趕。今天檢測技術提出了用眼球的反射光進行檢測,明天換臉技術就可以把眼球的反射光模擬也放在學習內(nèi)容之中。檢測技術必須不斷更新,才能跟上Deepfake技術發(fā)展的步伐。

    第三點是,檢測技術距自動化還有一定距離?,F(xiàn)有的檢測技術耗費的時間都比較長,難以做到在用戶上傳視頻的同時,短時間內(nèi)自動完成檢測和審核。距實用的自動Deepfake檢測軟件,還有一段路要走。

    第四點是,目前針對Deepfake技術還沒有完善的法規(guī)。各個視頻平臺對于什么樣的Deepfake視頻是惡意的、違規(guī)的,有著自己的界定規(guī)則。同時,目前也沒有關于Deepfake技術的相關法律。這就給針對Deepfake視頻的檢測、管控工作帶來了很多困難。

    雖然Deepfake檢測技術仍有諸多挑戰(zhàn),但是我們要相信,隨著AI技術的不斷發(fā)展,相關法規(guī)會逐漸完善,針對Deepfake的檢測技術也會變得越來越準確、高效。終有一天,虛假的視頻會在檢測技術的“火眼金睛”下統(tǒng)統(tǒng)現(xiàn)出原形。鉆技術的漏洞,濫用Deepfake技術,遲早會受到懲罰。

    參考文獻

    ( Hu S , Li Y , Lyu S . Exposing GAN-generated Faces Using Inconsistent Corneal Specular Highlights[J]. 2020.)


    [ 本作品中使用的圖片等內(nèi)容,如涉及版權,請致電。確認后將第一時間刪除。聯(lián)系電話:0433—8157607。]

    延邊信息港 / 延邊廣電客戶端
    標簽: Deepfake  技術  視頻  檢測  換臉