AI 識別的最大敵人:一張小貼紙,讓香蕉秒變烤麵包機?

http://36kr.com/p/5116199.html

【我們為什麼挑選這篇文章】應該不是大家都聽說過「對抗是圖像」吧?簡單來說這是一種經過刻意設計的圖,在一般人眼中看起來會覺得就只是個隨機圖案,但是在 AI 的眼中看起來卻是截然不同的東西。

這類型的圖像由於是專門被設計來「對抗」電腦的視覺系統,因此被稱為「對抗性圖像」,而這對於未來的發展,其實是非常至關重要的。

但為什麼會很重要呢?看完本篇文章,相信大家就會了解,這種感覺無傷大雅的圖案到底能造成多大的危害了。(責任編輯:林厚勳)

文 / 大數據文摘 Katrine.Ren、元元 編譯

當下,圖像識別技術看似愈發成熟了,但自帶蠢萌屬性的它實際上依然可以被輕易愚弄。

研究人員最近就成功忽悠了一把以智能著稱的算法,讓它們一臉懵逼地犯下了一系列錯誤:

比如把兩個滑雪的人辨識為一隻狗,把一個棒球看成是一杯意式咖啡,又例如把一隻烏龜誤認為是一把步槍。

最新的一個欺騙機器的方法操作更為簡單,卻有更深遠的影響,所需要的道具也僅僅是一張簡陋的貼紙而已。

圖注按順序為:將貼紙放在桌上,輸入分類器的圖像,分類器輸出結果
圖注按順序為:將貼紙放在桌上,輸入分類器的圖像,分類器輸出結果

這款由 Google 的研究人員新近開發的自帶迷幻劑屬性的小貼紙可是相當厲害了。只要將它放在任何一張圖片上,深度學習系統就會傻乎乎地把毫無關聯的圖像分辨為一部烤面包機。

據一篇最近提交的和這個神經網路攻擊有關的研究論文所述,這塊小小的「狗皮膏藥」(對抗性圖像)是具有「場景無關性」的,這意味著任何一個「對光照條件、相機角度、被攻擊的分類器類型或甚至場景中的其他事物沒有事先瞭解」的人都可以利用這張貼紙,去實行對圖像識別算法的攻擊。

相關研究論文的 arxiv 連結

再加上貼紙本身可以在網絡上被分享和打印出來,這個攻擊方法簡直是唾手可得。

一個由 Google 深度學習研究團隊 Google Brain 的成員 Tom Brown 上傳的 Youtube 影片,就展示了這塊對抗性圖像是怎樣作用於一張香蕉的圖片上的。

起先,一隻香蕉放在桌上的圖片是能夠被 VGG16 這個神經網絡正確識別為「香蕉」的,但把迷幻小貼紙放置於香蕉旁邊後,神經網絡隨即把圖片分類成了「烤面包機」。

正如研究人員在論文中所述,這個小把戲背後的原理,是深度學習模型其實每次只能探測到圖像中最「顯眼」的那個物品。

「對抗性圖像正是利用了這一特性,通過生成遠遠比真實物體顯眼得多的圖像輸入(從而欺騙了模型)。」同時,研究人員在論文中寫道,「因此,在攻擊物體探測或是圖像細分模型的時候,我們希望被定為識別目標的烤面包機貼紙一方面能被分辨為『烤面包機』,另一方面也不會對圖像本身的其他部分造成影響。」

即使現在研究人員已經有了許多種讓機器學習算法產生視覺錯誤的方法,這個辦法卻因其簡易操作且難以察覺的特點而顯得尤為重要。

「即使人類能夠注意到這些貼紙的存在,他們未必理解這些貼紙的真正意圖,反而誤認為這是某種藝術的表現形式。」研究人員如是說。

目前而言,讓機器把一根香蕉看成是一部烤面包機的小惡作劇並不會對社會造成什麼實際的危害。但隨著我們這個世界的運行開始越來越依賴圖像識別技術,這種操作簡單的方法在將來很有可能會造成嚴重的破壞。

最重要的是隨著無人駕駛技術的普及,這些智慧汽車非常依賴於圖像識別軟體來理解它們周邊的環境並與之互動。試想成千上萬坨大型重磅的金屬塊在高速公路上飛馳時只看得見烤面包機,這將是一件多麼危險的事情。

原文連結:https://gizmodo.com/this-simple-sticker-can-trick-neural-networks-into-thin-1821735479

─ ─

(本文經合作夥伴 大數據文摘 授權轉載,並同意 TechOrange 編寫導讀與修訂標題,原文標題為 〈 自帶迷幻劑技能的小貼紙:忽悠神經網絡,讓它將一切都當作烤面包機! 〉,首圖來源:flickr,CC Licensed。)

你還會想看這些 AI 消息

【玩命關頭:人工智慧】未來的 AI 警車狂飆追你,只為了開你一張罰單?
世界最屌的便利商店開張!Amazon Go 到底想要 Demo 什麼樣的購物體驗?
【台灣 AI 還不成氣候?】Google 簡立峰:「台灣要發展 AI 新創,要先在三個領域下功夫」


全球醫學矚目焦點

人類逼近打破年齡、健康限制的臨界點! 搶先報名 12/6《2019 未來科技展》再生醫療場次

點關鍵字看更多相關文章: