貼一隻大象到客廳,AI 的辨識系統怎麼就瞬間崩解了?

人工智慧的發展中,有一項很實用,也對於人類科技發展很重要的技術,就是圖像辨識系統。這套系統從識別照片中的物體,到裝在無人車上認路,都有著非常關鍵的角色。

這也是為什麼「對抗圖像」這項技術相對重要的原因。所謂的「對抗圖像」,就是可以干擾、甚至使 AI 圖像辨識系統完全失靈的圖案,這些圖案通常帶有的特點就是,人類在解讀這些有加上對抗圖像的畫面時,並不會有任何的辨識障礙,但卻會讓 AI 完全無法辨識出畫面裡的圖形,或是出現錯誤的辨識結果。

通常,這類辨識圖像的製作並不容易,需要研究人員事前針對辨識系統詳細研究,找出辨識系統辨識的方法,並且藉此加入經過設計的干擾雜訊,最終導致 AI 失靈。

不過現在研究人員發現,有更快的方法可以擾亂 AI ─ ─你只需要隨機複製貼上就好了。

突兀的物品隨機擺放,就能搞死 AI 的大腦

來自約克大學與加拿大多倫多大學的研究人員,最近發現了全新搞混神經網路的方法,只需要在一個畫面中加上與該畫面場景截然不同的圖案,就能導致神經網路錯亂,最終無法成功識別圖案。

研究人員舉例,一張圖片中有一個人,前方有一張桌子跟一檯筆記型電腦,AI 可以很正確的辨識出來,但是如果今天突然在圖片中加入一隻大象,AI 便完全無法辨識,而有很高的機率導致錯誤判斷。

會造成這樣的結果跟神經網路的學習方法有關。由於在早期大量學習的過程中,AI 從未看過大象出現在客廳的圖片,因此對 AI 而言,突然出現的一隻大象是它「不認識」的物體,因此只能夠透過聯想「客廳內可能會出現,長得跟大象很像」的物體來推估那頭大象代表的是什麼物件。

這種可以說是利用了 AI 學習的弱點進行的對抗圖像,藉由將一個場景的辨識目標複製貼上到另外一個場景中,導致 AI 無法順利辨識運作,研究人員稱這為「目標移植」。

當對抗圖像製作方法變簡單,AI 發展的未來岌岌可危

這樣的發現一方面代表著 AI 還有可以進步的空間,另一方面卻也代表著圖像辨識目前可能遭遇的危險。

由於過往對抗圖像的製作需要很高的技術,因此就算知道對抗圖像可以干擾 AI 的圖像辨識,通常也比較不擔心路上會有人利用這種技術來干擾智慧攝影機、無人車等裝置的運作;然而如今發現的方式卻相對簡單 ─ ─ 只需利用一些比較突兀的圖案就好。

若是這樣的研究成果遭到有心人士惡意利用的話,可以想見的是未來 AI 的圖像辨識系統將會遭遇到前所未有的挑戰,研究人員也必須要加把勁,想辦法及時解決這些問題才行。

─ ─

參考資料來源:
雷鋒網: 忽悠 AI 圖像識別系統的新方法:隨機複製並粘貼
《TechOrange》:AI 識別的最大敵人:一張小貼紙,讓香蕉秒變烤麵包機?

(本文提供合作夥伴轉載,首圖來源:Pxhere, CC Licensed)

其他你會想跟著看的好文章

AI 已經會寫 AI 啦: Google 人工智慧寫了一個圖形辨識軟體,效能還狂壓人類寫的軟體!
AI 識別的最大敵人:一張小貼紙,讓香蕉秒變烤麵包機?
【2018 年 Google Next 大會】機器學習神境界,不用寫 Code 就可以辨識圖像


我們正在找夥伴!

2019 年我們的團隊正在大舉擴張,需要你的加入跟我們一起找出台灣創新原動力! 我們正在徵 《採訪社群編輯》、《助理編輯》,詳細職缺與應徵辦法 請點我

點關鍵字看更多相關文章: