美國的「新國安危機」,是否也可能干擾台灣 2020 總統大選?

美國前總統歐巴馬, 首圖來源: 影片 截圖。

假影片在美國造成轟動:歐巴馬「說了」他不可能說的話

當你看著文質彬彬的美國前總統歐巴馬,嘴裡緩緩吐露出辱罵川普的字眼,你相信眼前的一切嗎?

先前,網路上流傳著一支影片,美國前總統歐巴馬對著鏡頭,說道:「President Trump is a total and complete dipshit.(川普總統完全就是個笨蛋!)」

別被騙了! 這不是「真正」的歐巴馬在發言,而是美國網路傳媒 BuzzFeed 利用 deepfakes  擬真 技術製作的假影片。製作團隊將歐巴馬與美國知名演員喬登・皮爾的影像結合,利用人臉交換技術與視覺特效軟體,喬登・皮爾(Jordan Peele)所講的一字一句,最後呈現出外型、聲音都與歐巴馬一致的影像,觀眾們也深深認為,這些話出自歐巴馬之口。

其實,「歐巴馬」曾在影片開頭透露玄機。他提到:「我們正進入一個,我們的敵人可以在任何時間,讓你覺得是某個人在講話的時代」,並在片尾呼籲觀眾們「保持清醒」; 傳媒以創新的方式對大眾示警,希望大家能夠多注意網路上的消息來源,更加謹慎判斷正確性,而不是一昧相信眼裡所見。

不只政壇人物遭惡搞, deepfakes 技術也容易陷一般民眾於不義。根據國外科技網站 《Motherboard》,曾經有網友利用 deepfakes  技術,把名人、前女友製作成色情影片主角,並在網路上大力散播,讓這些影片的主角們成為受害者。

由此可見,高科技為我們帶來便利,卻也被有心人士利用進行不良用途。deepfakes 技術就是其中一例,透過偽造以假亂真的影片,讓人們對此深信不疑 。

這項技術遭濫用會有多嚴重?如果讓政治人物「說出」自己沒說過的話,勢必會造成假消息滿天飛,儼然成為美國的新國安危機。幸好, 美國國防部已經想到識破 deepfakes 假影片的方法。

首先,先來了解「讓假成真」的 deepfakes 技術運作原理

想要製作 deepfakes 影片一點也不難,據 《BBC》 報導,擁有夠多影片主角的清晰照片是要素之一,要得到這些照片簡直輕而易舉,因為現在有太多人喜歡到處上傳自拍照。

接下來的程序更簡單了,科技雜誌 《麻省理工科技評論(MIT)》 解釋道,有了足夠的影片資料,透過 AI 人工智慧搭配電腦合成外觀、聲音,進行畫面節奏製作,就能製作出設計者想要呈現的內容,將某個人的臉成功地轉移到另一個人身上,而且畫面逼真不已,根本難以辨識真偽。

隨著 deepfakes 更加廣為流傳,美國境內也開始擔心這樣的假影片過度氾濫,會造成危機。美國共和黨參議員馬可・盧比歐(Marco Rubio)極為重視這個議題,他曾公開演講大談 deepfakes ,他認為這是迫在眉睫的挑戰,且可能會對隱私、民主帶來影響,甚至成為重大的國安威脅。

美國國防部想出識破 deepfakes 的方法

美國國防部所屬的行政機構,國防高等研究計劃署(DARPA)正在研議新式驗證方法,並對外舉辦了許多合作競賽,希望集結各界的專業領域識破 deepfakes 影片,近來更是有所斬獲。參與這項計畫的研究者們,紛紛提出解方。

根據 《麻省理工科技評論》,紐約州立大學奧爾巴尼分校電腦科學系的斯維呂(Siwei Lyu)教授,與學生組成研究團隊,他們透過製作 50 多部假影片,嘗試相當多種鑑別方法,終於為拆穿 deepfakes 影片提供重要線索。

一天,呂教授在鑽研 deepfakes 假影片時, 察覺假影片裡的人物不太眨眼 ,就算他們眨眼,也會表現得相當不自然,所以他們決定依照這個特性研發鑑別技術。這一切都與 deepfakes 技術本質相關:透過大量靜態、人物睜大眼睛的圖像生成影片。

而其他參與競賽的挑戰者也發現出類似的現象,例如: 假影片中的人物會有奇怪的頭部動作、怪異瞳孔顏色等。

然而,美國達特茅斯學院的頂尖數位鑑識專家提出憂慮:deepfakes 技術經過不斷改良,將來可以變得更毫無破綻,讓鑑別工具無法辨識。

對此,奧爾巴尼分校的呂教授則表示,自己的團隊已經開發出一種更有效的技術,但是為了比偽造者多一分優勢,他決定先暫時不對外公開,對該技術保密。目前看來,美國的新國安危機仍未完全摘除。

Deepfakes 技術可能為台灣帶來什麼影響?

當美國正擔憂著 deepfakes 的假影片,可能會為將來的 2020 大選帶來亂象時,台灣更不可掉以輕心!

在加拿大約克大學擔任副教授的學者 沈榮欽 表示,現今是個網路企業追尋流量的世代,「當流量逐漸脫離現實,真實與虛擬的面目已經越來越模糊,缺乏對人類認知與決策的理解,任何妄想以增加民眾識讀能力來矯正一切資訊戰的努力,註定是徒勞無功的,特別是對台灣民眾與所處的媒體環境而言。」

他分享一則中國點擊農場運作的推特影片,鏡頭直擊農場公司架起上千百支同時在線的手機,播放著同一個畫面,只為了幫影片衝在線人氣。當流量成為唯一目標,是否會有不肖網友、傳媒不擇手段利用 deepfakes 技術製作更多假影片?我們不得而知。

沈榮欽也提出他的憂心處:台灣民眾一向對中國的資訊戰相當輕忽,如果 2020 大選前夕,真的出現偽造蔡英文的影片,進而干擾選舉,最令人感到憂心的,是大多數不曾為 deepfakes 假影片憂心過的台灣民眾。

台灣民眾一向有對中國資訊戰輕忽的習慣,不僅使得原本就短視的視野更加凝視自身的肚臍眼,更弔詭地用愚昧來彰顯聰慧、以偏狹彰顯廣闊,從「藍綠一樣爛」到韓柯粉,沒有正常化的人民,就不會有正常化的國家。這種抱怨並不如何新穎,從 1976 年的電影《電…

Posted by 沈榮欽 on Friday, 28 December 2018

Deepfakes 假影片其實也反應了給一個事實:即便是你眼裡所見的,也未必是真相。

參考資料

《麻省理工科技評論(MIT)》:〈The Defense Department has produced the first tools for catching deepfakes
《Motherboard》:〈People Are Using AI to Create Fake Porn of Their Friends and Classmates
《BBC》:〈Deepfakes porn has serious consequences
Youtube 影片
沈榮欽 個人臉書

(本文提供合作夥伴轉載,首圖來源:影片 截圖。)


想看到每天《報橘》精選好文?趕快把我們加入你的 Line 好友

加入好友

 

 

點關鍵字看更多相關文章: