【我們為什麼挑選這篇文章】Google的Google Brain團隊公布了最新的研究成果。利用兩種神經網路來將馬賽克轉變為肉眼可辨識的圖片。不過要如何在不違反倫理的前提下應用,則是未來必須面對的難題。(責任編輯:黃筱雯)
在觀看島國教育片的時候,往往在不可描述的部位打上了馬賽克,固然呈現了朦朧美,但部分觀眾依然希望變得更加清晰。現在,Google Brain 在提升圖片分辨率方面取得了突破性進展。他們已經成功將 8*8(毫米)網格的像素馬賽克轉換成為肉眼可辨識的人物圖像。
而真正能夠提升低分辨率照片細節的最佳突破口就是神經網路。當我們被照片中所包含的像素信息難倒的時候,深度學習能通過人類常說的「幻想」來增加細節。實質就是軟體基於從其他圖片中學習到的信息對圖片進行猜測。
Google Brain 的研究團隊已經公布了「像素遞歸超分辨率」技術(Pixel Recursive Super Resolution)的最新進展,盡管結果看上去有點嚇人,但是整個還原效果令人印象深刻。
下面是他們復原的效果案例之一:
右手邊的圖片,是 32 x 32 網格的真實人物頭像。左手邊的圖片,是已經壓縮到 8 x 8 網格的相同頭像,而中間的照片,是 GoogleBrain 基於低分辨率樣片猜測的原圖。
整個復原過程使用了兩種神經網路。首先介紹的是調節網路(Conditioning Network),它將低分辨率照片和數據庫中的高分辨率照片進行對比。這個過程中迅速降低數據庫照片中的分辨率,並根據像素顏色匹配一堆同類照片。
接下來介紹的是優先網路(prior network),它就會猜測那些細節可以作為高分辨率照片的特徵。利用 PixelCNN 架構,該網路會篩查該尺寸的同類照片,並根據概率優先對高分辨率照片進行填充。例如,在論文提供的例子中,提供的同類照片是名人和臥室,優先網路根據優先級最終確認了名人的照片。優先網路會在低分辨率和高分辨率照片中做出決定,如果發現鼻子的可能性比較大,就會選擇鼻子。
接下來,兩個神經網絡的最佳猜測就會進行整合,最終形成的圖像如下:
下面也是一些通過超像素技術變化的樣本:
在你開始思考:「這並不準確,這個人工智慧是愚蠢的」,那麼請記住人類同樣也是愚蠢的。一名志願者參與了這樣的測試,同時展示降低分辨率的照片和通過 Google Brain 復原的照片,然後提問「你猜那張照片來自於相機?」,最終結果是 10% 的名人照片,測試者選擇了 Google Brain 的照片。在 28% 的臥室樣片中,測試者選擇了 Google Brain 的照片。
儘管技術是純淨的,但是未來可能會有非常可怕的應用。就像是波士頓馬拉松爆炸案一樣,不難聯想到一些執法部門會濫用該軟體來抓取嫌疑犯。更為重要的是,人工智慧的多次嘗試已經被證明存在種族主義,因為往往會參雜人類的偏見。分析型人工智慧和圖像技術的結合,在未來必然會經歷一段漫長的調適過程。
延伸閱讀
Google、微軟的圖像識別技術行不行,都要「她」說了算
臉部識別系統大功告成,FBI 宣布將用來調查罪犯
比 Google 還厲害? 百度道歉:我錯了!在圖像識別競賽中違規
(本文經合作夥伴雷鋒網授權轉載,並同意 TechOrange 編寫導讀與修訂標題,原文標題為〈谷歌大腦最新技術:將馬賽克還原成清晰圖像〉。)