【Connect AI to the Future】Google 提出 TCAV 技術,有望成為深度學習的全新框架!

【為什麼我們要挑選這篇文章】AI 很像個「黑箱」,它很多時候可以精確預測,人們卻未必知道背後的演算方式。科學家開發深度學習模型時,也遇到可解釋性與準確性的兩難:要知道結果如何產生的,還是只要產出高準確度的數據就好?

近期 Google 的研究團隊發表論文,提出了 CAV 與 TCAV 技術,可望解決這個「深度學習的兩難」問題。(責任編輯:郭家宏)

「《科技報橘》徵才中!跟我們一起定位台灣產業創新力 >> 詳細職缺訊息
快將你的履歷自傳寄至 [email protected]

可解釋性仍然是現代深度學習應用的最大挑戰之一。計算模型和深度學習研究的最新進展使我們能夠建立極度複雜的模型,包括數千隱藏層和數千萬神經元。效果驚人的前沿深度神經網路模型建構相對簡單,但了解這些模型如何創造和使用知識仍然是一個挑戰。

最近,Google Brain 團隊的研究人員發表了一篇論文,提出了一種名為概念激發向量(Concept Activation Vectors, CAV)的新方法,它為深度學習模型的可解釋性提供了一個新的視角。

深度學習模型的兩難:可解釋性 vs. 準確性

要理解 CAV 技術,需要了解深度學習模型中可解釋性難題的本質。在當今一代深度學習技術中,模型的準確性與可解釋性之間存在著永恆的矛盾。可解釋性–準確性矛盾存在於完成複雜知識任務的能力和理解這些任務是如何完成能力之間。知識與控制,績效表現與可核查性,效率與簡便性等等,任意一項抉擇其實都是準確性和可解釋性之間的權衡。

當人工智慧進入關鍵十年發展、強勢改變世界,台灣無法置身事外。

2030 年,台灣的 AI 國力會在哪裡?又要如何建立?

8/10(六)【TechOrange 科技報橘 2019 年度論壇】CONNECT to the Future,帶你看見 2030 年最重要科技趨勢 ↓↓
雙人早鳥 6 折優惠票只剩 2 天!

你是關心獲得最佳結果,還是關心結果是如何產生的?這是數據科學家在每個深度學習場景中都需要回答的問題。 許多深度學習技術本質上非常複雜,儘管它們在許多場景中都很準確,解釋起來卻非常困難。如果我們在一個準確性–可解釋性圖表中繪製一些最著名的深度學習模型,我們將得到以下結果:

深度學習模型中的可解釋性不是一個單一的概念。我們可以從多個層次理解它:

要得到上圖每層定義的可解釋性,需要幾個基本的建構模組。在最近的一篇論文中,谷歌的研究人員概述了他們看來的一些可解釋性的基本建構模組。

Google 總結了以下三項可解釋性原則:

1. 了解隱藏層的作用:深層學習模型中的大部分知識都是在隱藏層中形成的。在宏觀層面理解不同隱藏層的功能對於解釋深度學習模型至關重要。

2. 了解節點的啟動方式:可解釋性的關鍵不在於理解網路中各個神經元的功能,而在於理解同一空間位置被一起激發的互連神經元群。透過互連神經元群對神經網路進行分割,能讓我們從一個更簡單的抽象層面來理解其功能。

3. 理解概念的形成過程:理解深度神經網路如何形成組成最終輸出的單個概念,這是可解釋性的另一個關鍵建構模組。

這些原則是 Google 新 CAV 技術背後的理論基礎。

Google 提出 TCAV,量化預測 CAV 的敏感度

遵循前面討論的想法,通常所認為的可解釋性,就是透過深度學習模型的輸入特徵來描述其預測。邏輯回歸分類器就是一個典型的例子,其係數權重通常被解釋為每個特徵的重要性。然而,大多數深度學習模型對例如像素值之類的特徵進行操作,這些特徵與人類容易理解的高級概念並不對應。此外,模型的內部值(例如神經元激勵)也很晦澀難懂。雖然諸如顯著圖之類的技術可以有效測量特定像素區域的重要性,但是它們無法與更高層級的概念相關聯。

CAV 背後的核心思想,是衡量一個概念在模型輸出中的相關性。 概念的 CAV 就是一組該概念的實例,在不同方向的值(例如激發)構成的向量。論文中,Google 研究團隊概述了一種名為 Testing with CAV(TCAV)的線性可解釋方法,該方法使用偏導數來量化預測 CAV 表示的潛在高級概念的敏感度。他們構想 TCAV 定義有四個目標:

易懂:使用者幾乎不需要機器學習專業知識。
個性化:適應任何概念(例如性別),並且不限於訓練中涉及的概念。
插入即用:無需重新訓練或修改機器學習模型即可運作。
全局量化:可以使用單一定量測度來解釋所有類或所有實例,而非僅僅解釋單個數據輸入。

為實現上述目標,TCAV 方法分為三個基本步驟:

1. 為模型定義相關概念。
2. 理解預測對這些概念的敏感度。
3. 推斷每個概念對每個模型預測類的相對重要性的全局定量解釋。

TCAV 方法的第一步,是定義相關的概念(CAV)。為實現此目的,TCAV 選擇一組代表該概念的實例,或尋找標記為該概念的獨立數據集。我們可以透過訓練線性分類器,區分概念實例產生的激發和各層中的實例來學習 CAV。

第二步是生成一個 TCAV 分數,用於量化預測對特定概念的敏感度。TCAV 使用了用於衡量 ML 預測值在某一概念方向、在激勵層對輸入敏感度的偏導數。

最後一步嘗試評估學到的 CAV 的全局相關性,避免依賴不相關的 CAV。畢竟 TCAV 技術的一個缺陷,就是可能學到無意義的 CAV,因為使用隨機選擇的一組圖像仍然能得到 CAV,在這種隨機概念上的測試不太可能有意義。為了應對這一難題,TCAV 引入了統計顯著性檢驗,該檢驗以隨機的訓練次數(通常為 500 次)評估 CAV。其基本思想是,有意義的概念應該在多次訓練中得到一致的 TCAV 分數。

TCAV 將被主流深度學習框架採用

團隊進行了多次實驗來評估 TCAV 相比於其他可解釋性方法的效率。在一項最引人注目的測試中,團隊使用了一個顯著圖,嘗試預測計程車這一概念與標題或圖像的相關性。顯著圖的輸出如下所示:

使用這些圖像作為測試數據集,Google Brain 團隊在 Amazon Mechanical Turk 上邀請 50 人進行了實驗。每個實驗人員執行一系列共六個針對單個模型的隨機順序任務(3 類對象 x 2 種顯著圖)。

在每項任務中,實驗人員首先會看到四幅圖片和相應的顯著性蒙版。然後,他們要評估圖像對模型的重要程度(10 分制),標題對模型的重要程度(10 分制),以及他們對答案的自信程度(5 分制)。實驗人員總共評定了 60 個不同的圖像(120 個不同的顯著圖)。

實驗的基本事實是圖像概念比標題概念更相關。然而,看顯著圖時,人們認為標題概念更重要(0% 雜訊的模型),或者辨別不出差異(具有 100% 雜訊的模型)。相比之下,TCAV 結果正確地表明圖像概念更重要。

TCAV 是這幾年最具創新性的神經網路解釋方法之一。初始的程式碼可以在 GitHub 上看到。許多主流深度學習框架可能會在不久的將來採用這些想法。

原文 傳送門

(本文經合作夥伴 大數據文摘 授權轉載,並同意 TechOrange 編寫導讀與修訂標題,原文標題為 〈谷歌大脑发布概念激活向量,了解神经网络的新思维方式 〉。首圖來源:Pixabay CC Licensed)

更多關於深度學習的文章

PyTorch 深度學習入門推薦!清楚的 PPT 講解,讓你 5 天就上手
R 語言可用來開發深度學習!不只是統計分析,R 還有這 10 個強大隱藏功能
【2019 年圖靈獎】最偉大人工智慧三巨頭:少了這些研究,深度學習就掰掰了


醫學明日之星「細胞治療」,你聽過嗎?

這是一種讓人類細胞自我修復的神奇醫學技術! 搶先報名《2019 未來科技展》再生醫療場次 產官學三層維度概念拆解,細胞治療即將引爆的巨大商機與醫療創新趨勢 《點我即刻報名

點關鍵字看更多相關文章: