深偽技術:您能識別深度偽造嗎?
深度偽造係指使用人工智慧進行篡改的影片,這些影片已然成為政府、執法機關和所有人都在關注的問題。這種合成媒體可以非常有說服力,並且在未來可能會打破「眼見為憑」的古老箴言。但深偽技術是什麼?為什麼深度偽造如此危險?
深度偽造是什麼?
深度偽造的定義
深度偽造(deepfake)一詞來自於結合英文的「deep learning 」(深度學習)和「fake」(偽造)所生成的混成詞。深偽技術專指基於人工智慧的人體圖像合成技術的應用,此種技術可將現有的圖像或是影片疊加到目標圖像或是影片上,以製作能夠以假亂真的假媒體。
深偽技術可以創造出令人信服的影片,包含讓政治人物和名人在影片中說出和做出實際從未發生的事情。深度偽造程式相對來說,較容易取得和使用,再結合人工智慧系統重現特定人物聲音音頻的技術,一個優質的深度偽造將會成為一個強大,且可能極其危險的工具。
如何製作深度偽造影片?
深度偽造是使用人工智慧系統所製作的,此種技術使用深度學習的過程來查看並重新製作媒體。在某些情況下,這些深度學習系統使用生成對抗網路技術,也就是將人工智慧網路分為兩個敵對部分,讓它們彼此競爭學習進而改良其輸出。
深度偽造通常會取用一個人,大多是演員的影片片段。而這人只是傀儡,之後會有另一張人臉圖像合成到原本的人物上。接著,人工智慧會查看上百張不同人物的圖像,並且逼真地再現人物特徵。然後,新臉孔的圖像會搭配演員的動作,同步表情和嘴唇動作。
儘管深度偽造 AI 仍在發展和改良中,目前還很難使用一台普通電腦來製作精良的深度偽造,但它已處於非常先進的階段,只需最少數量的人類參與監督,即可迅速產出結果。
深度偽造的應用案例
深偽技術只要有特定對象的大量影音素材,即可從現有資料中生成更多新資料,製造出以假亂真的影片。
而目前最著名的深度偽造影片,就是 2018 年美國前總統歐巴馬(Barack Obama)批評川普(Donald Trump)是笨蛋的影片。無獨有偶,同年一個比利時政黨也發布了川普發表演說的影片,內容呼籲比利時退出巴黎氣候協定。然而,歐巴馬從未拍過該影片,川普也未曾發表過那個演說——以上兩個都是深度偽造影片。這類誤導性的深偽影片在未來只會越來越多,用在政治宣傳中可以挑動民眾情緒,操弄民心,進而影響到選情甚至是國家安全。除此之外,深度偽造有其他相關應用:
影視產業
電影等影音娛樂產業過往都需要使用許多複雜、耗時又昂貴的電腦模擬,才能仿造人臉,但使用深偽技術,製作上就可更加省時。某些電視劇如《光榮時代》、《三千鴉殺》就有以此技術進行角色的臉部替換。好萊塢知名系列動作電影《玩命關頭 7》,也在主角保羅・沃克(Paul Walker)意外身亡後,使用此技術讓由其弟弟擔綱演出的部分得以連戲。在影劇和遊戲產業中,深偽技術的應用也日益增加,促進了產業發展。
色情深偽
深度偽造在現實世界中的第一起應用,是為了創作合成色情影片。2017 年,一個名為「deepfakes」的 Reddit 用戶創立了一個主打演員換臉的色情論壇。至此之後,色情影片(尤其是復仇是色情影片)的出現屢屢躍上新聞版面,嚴重損害名人和權威人士的聲譽。根據 Deeprace 的一份報告,2019 年在網路上發現的深偽影片中,色情影片就佔了 96%。
台灣於 2022 年10 月也有類似的「網紅挖面事件」發生。在擁有幾千名成員的 Telegram 群組,將知名人士從政治人物、明星藝人、主播、到網紅和素人的臉,置換到成人影片中色情演員身上,並販售不雅影片以牟取不法利益,受害者高達上百人。
如何識別深度偽造?
要發現深度偽造沒有那麼容易,雖然某些影片中的臉部表情散發出超現實的虛假詭異感,讓人一眼就可以看出是假影片,但某些影片的製作則要精緻許多。
有幾個要素有助於確認眼前所看的,是否為非常具有說服力的深度偽造影片。若是影片中有人物臉孔出現,請特別注意臉部部分,並尋找以下特徵:
明顯的視覺瑕疵
深偽影片中,疊加部分的接合處是否有明顯瑕疵為重要的判斷依據,在臉部輪廓的邊緣有時也會出現不自然的紋理。即使是製作精良的深偽影片中,在背景區域或是影片跨幀時,人物的輪廓都可能會有模糊或是失真的情形出現。
不精確的非臉部特徵
如果影片中出現的是一位公眾人物,如政治人物,可以試圖使用此人物的圖像進行比較。看看在主要臉部特徵以外的元素,這些特徵可能沒有被改變:手部、頭髮、體型,以及其他在有關影片,和較舊且較可靠的視覺來源間不同步的細節。
不自然的肢體動作
至少就目前而言,當影片中的人物沒有太多動作時,深度偽造看起來較有說服力。如果影片人物的身體和頭部看起來異常僵硬,這就可能是一個跡象,表示影片的創作者只有讓深度學習 AI 輕鬆將圖像合成到人物的臉上,而沒有處理太多肢體動作的部分。
難以令人信服的聲音
深偽技術正在迅速發展,但就目前而言,訓練電腦創造模擬音訊,似乎比合成令人信服的深偽圖像和影片產出的效果要差。
深度偽造的創造者如果想讓對象人物說話,必須在兩個選項中做出選擇——或是使用人工智慧生成的聲音,或是使用能夠模仿材料來源的演員。可將影片聲音與名人或政治人物講話的音訊進行比較,可能就會注意到某些差異。
深度偽造是一種威脅嗎?
深偽技術不僅對個人,也對整個社會造成了實際威脅。雖然在娛樂產業中的應用,可以使電影或遊戲等作品的製作更省時,但令人信服的深偽影片如果被用來製作成復仇式色情影片,流傳到網路上會造成極大的傷害,這就是為什麼許多國家開始制定法案,將此活動定調為犯罪行為。
然而,除了色情深偽外,深度偽造還造成了其他日益嚴重的威脅,以下將進行深度探討。
假新聞和政治宣傳
一個令人信服的深偽影片若是用在政治宣傳,可以抹黑政治對手和敵對政府。舉例來說,於 2022 年,在俄羅斯入侵烏克蘭後不久,網路上就出現了烏克蘭總統宣布投降的深度偽造影片。
雖然該影片隨後被揭露是假的,但不難想像,一旦深偽技術變得更難以偵測,此種策略會造成多大的破壞力。深度偽造可以用來抹黑政敵,影響甚至是操弄選民。另外,此種技術的濫用也可能會用來詆毀顯示有罪事實的影片。
如果偵測深偽影片變成不可能的任務,善於捏照事實的媒體就有可能會增加假新聞的製作,並加深民眾對於主流媒體的不信任度。
詐騙和社交工程
深偽技術也可用於詐騙,誘騙人們暴露自己的私人資訊,或甚至透過網路釣魚攻擊不法獲利。如果您收到好友的 Facebook 訊息,解釋他們人在海外有困難,需要緊急金援,您可能會有所懷疑。也許您嘗試撥打電話或用不同通訊軟體聯繫他們,發現好友的 Facebook 帳戶已經被駭。
現在想像一下相同的場景,但您收到的不是一條訊息,而是一個令人信服的影片,音訊和影片看起來都非常真實。現在您手上有了他們看似真的被困在機場,沒有足夠的錢買回家機票的視覺證據。很多人都會立刻把錢轉過去,覺得沒有必要進一步要求證明——但其實這個影片可能只是深度偽造影片。
由於生成對抗網路技術和其他機器學習系統日益成熟,詐騙份子很快就可以利用這些具有說服力的影片來發動社交工程攻擊,或進行身份竊盜,並有助於進一步的詐騙。
總結
隨著技術的進步,偵測深度偽造會變得越來越困難。而如果技術已經發展到:任何擁有電腦和對視覺特效軟體有基礎知識的人,都能製作出總統發表無恥談話的影片,那就有大麻煩了。
現今,要應對深度偽造的詐騙所帶來的風險,可以採取的一個簡單措施是限制您在網上發佈的圖片數量。建立一個令人信服的 AI 生成影片仰賴系統存取大量目標人物的照片和影片,我們建議您保持社群媒體檔案的私密性,避免定期發佈含有自己臉部的圖像。