【我只是照『老闆』的話做】跨國犯罪分子用 Deepfake 生成老闆語音,詐騙近台幣 729 萬

【我們為什麼挑選這篇文章】利用 AI 的詐騙案層出不窮,尤其 Deepfake 更是近幾年來詐騙新聞的焦點,除了合成影像詐騙外,合成聲音的詐騙也成為新興詐騙手法,然專家目前即使能分辨真假聲音,由於缺乏更多的數據樣本,仍無法推測背後生成音頻的演算法模型,期許各國專家能聯手合作,別讓更多無辜的企業和個人遭害。(責任編輯:賴佩萱)

本文經 AI 新媒體量子位(公眾號 ID:QbitAI)授權轉載,轉載請連繫出處

作者:量子位

Deepfake 模仿生成人臉效果出眾,真假難辨。由此引發的爭議和擔憂,使得各大平台先後封殺了 Deepfake。

但最近,外媒又報導了不法之徒用聲音版 Deepfake 開始了新的詐騙活動,「一血」就拿下 24.3 萬美元(約 729 萬台幣)。

棘手的是,目前安全專家毫無破解之法。

凡事存疑,語音詐騙別上當!

今年 6 月,一家美國的科技公司員工收到了「自家」CEO 發來的語音郵件,要求他「馬上協助完成一筆緊急的生意」。

但是,這次 CEO 的聲音聽起來卻有一點怪。是 boss 的聲音沒錯,但是感覺機械了點,尖銳了點,而且這種語音郵件的聯繫方式也很反常。

這位員工還是比較機敏,把事情上報給了公司法務,終於證實這是一起合成人類語音的詐騙事件。

隨後,這家公司把相關資料提供給美國安全諮詢公司 Nisos 來調查,但結果卻無法令人滿意。

專家:真假人聲音可辨,但還無法識破詐騙技術

Nisos 使用 Spectrum3d 聲音頻譜圖工具分析了 Deepfake 語音郵件的音頻記錄。技術人員注意到了聲音頻譜圖中的 峰值反覆出現 ,Nisos 懷疑是 Deepfake 創作者用多個軌道的聲音合成後播放,以此來偽造某一目標人物的音色。

此外, 聲音頻譜斷斷續續,與正常的人類的錄音不一致 。以 1.2 倍速度播放時,這段聲音聽起來 像是文本轉語音的軟體合成的結果 ,最重要的一點是,研究人員 沒有在這段聲音中檢測到任何背景噪音

比較 Deepfake 聲音和正常人類錄音,可以發現真實情況下(人類的聲音),頻譜的音高和音調更加平滑,而且背景中總能檢測到噪音。但是,Nisos 的分析也只能到此為止了, 因為缺乏更多的數據樣本,研究人員無法知曉或推測生成音頻的演算法模型細節

Nisos 找到了一個疑似詐騙犯使用的電話號碼,但是沒有任何註冊身份訊息,出於法律原因,Nisos 沒有回撥號碼去聯繫。

所以,目前來看,還沒有識別和追蹤詐騙者的技術手段。但研究人員總結了 Deepfake 音頻的特點。Deepfake 創作者為了創建更為逼真的聲音,通常需要滿足如下幾個條件:

  1. 截獲目標人物幾乎沒有背景噪音的高質量音頻
  2. 在對方不需要或無法回電、交談的情況下發送音頻
  3. 以留言的形式避免與音頻接收者實時交談

Deepfake 語音詐騙事件層出不窮

2019 年 9 月,英國出現了第一起 Deepfake 聲音詐騙事件。犯罪分子使用聲音版 Deepfake 模仿英國一家能源公司高層主管的聲音。

該公司的執行董事在接聽詐騙電話後將超過 24.3 萬美元匯入了一個匈牙利帳戶,而在第一筆進賬後,騙子接著打了第二個要求轉帳的電話,這才引起了懷疑。

目前,該罪犯仍未被抓獲,但據外媒報導,這起案件中的 Deepfake 聲音效果極其逼真,不僅模仿了音色,對於標點、語調的把握也十分到位,甚至還學會了公司 boss 的德國口音。

今年 2 月,網路安全公司 Symantec 報告了三起 Deepfake 聲音詐騙案例,犯罪分子透過電話會議、YouTube、社交媒體以及 TED 演講等形式獲得了公司高管的音頻,然後用 Deepfake 演算法複製高管的聲音,致電財務部門的高級成員要求緊急匯款。

騙子一般利用 VoIP 網絡電話帳號聯繫攻擊對象,繞過通話,直接使用語音郵件功能發送合成音頻。

Nisos 認為,現在的小規模發送 Deepfake 音頻,可能只是犯罪分子在「試水」,隨著 Deepfakes 的創建或購買變得越來越容易,聲音、影片的合成處理質量不斷提高,此類電子詐騙將更為普遍。

一般人遇到語音詐騙該怎麼辦?

儘管 Nisos 的研究人員說,目前這種 Deepfake 演算法還沒有外包給單個個體或大規模生產的可能,但 Nisos 透過「特殊渠道」聯繫到了熟悉 Deepfake 項目的開發者,他們說不確定這種情況將來會不會成為可能。

聲音 Deepfake 的核心問題不僅要捕捉人的音色,還要捕捉具體的言談舉止習慣,且類似 Yandex 反向圖像搜索工具的語音版,可以用來收集大量樣本,然後建立、訓練 Deepfake 模型,幫助將源語音轉換為目標語音。

那麼當下普通人如何預防類似的詐騙呢?Nisos 認為,儘管 Deepfake 真假難辨,但能力畢竟有限。

對於可疑的留言或語音郵件,可以使用已知號碼回撥該發送者進行通話;公司員工也可以針對公司內部訊息或某些機器無法輕易回答的問題在通話過程中進行挑戰性提問,以查明通話對象的身份。

你曾經遇到過 AI 生成的語音詐騙嗎?

(本文經 AI 新媒體量子位授權轉載,並同意  TechOrange 編寫導讀與修訂標題,原文標題為 〈靠「老闆語音」騙走 182 萬!音頻版 Deepfake 讓員工真假難辨乖乖轉賬,專家:目前無解 〉。)

你可能會有興趣


科技報橘 LinkedIn 上線!

最新科技產業動態、技術新突破、專業職能技巧提升 ....... 鎖定 TO  LinkedIn 專業品牌,提升職能與產業 Know-how,躋身產業菁英之列 https://www.linkedin.com/showcase/techorange

點關鍵字看更多相關文章: