【投稿】揭密 AI 黑箱,開發者投入研究「可解釋的人工智慧」

圖片來源:Appier

【為什麼我們挑選這篇文章】AI 能精準預測,但它的「黑箱性」困擾了不少開發者與商業決策者。因此,產業界正在致力研究可解釋的人工智慧(XAI),讓 AI 的決策流程透明化,有助於決策者制定策略、分析成效,也有助於人類對 AI 的信任。(責任編輯:郭家宏)

作者:Appier 首席機器學習科學家  林守德博士

對許多人而言,人工智慧的運作模式宛如黑箱般難以理解更無從解釋,必需在輸入數百萬筆、甚至數十億筆資料後,才能產出足以讓人們信任進而採取行動的 AI 模型。然而,正因為其決策過程中摻雜的變數具有廣泛影響力,促使應用開始朝「可解釋的人工智慧(簡稱 Explainable AI 或 XAI)」方向進行發展。

人工智慧模型可透過訓練資料及演算法推導出結論,並在輸入新資訊時,運用該資訊制定決策並採取行動。例如,當顧客造訪線上商店時,人工智慧模型會根據他的相關資料(如過去的購買記錄、瀏覽歷史、年齡、所在地和其他特徵)提出相應的產品推薦。

Appier 首席機器學習科學家林守德博士解釋道:「如果行銷人員想要針對不同客群提供不同的優惠訊息,人工智慧將是他們可以利用的工具。一旦掌握了人工智慧模型用以區分顧客的方式和原因,便可針對各個客群設計並執行更有效的行銷策略。」

舉例而言,行銷人員可利用人工智慧將顧客劃分為三種類型:果斷型顧客、猶豫型顧客和純瀏覽型顧客,並根據不同客群的特性採取相應行動。例如,可針對果斷型顧客進行追加銷售,並向猶豫型顧客寄送折扣碼或優惠券,以增加其購買的可能性。至於純瀏覽型顧客,因為他們大多數時候是只看不買,行銷人員無須對其採取任何行動。

換言之,藉由了解人工智慧進行分眾區隔的方式,行銷人員便能為各個客群量身打造專屬的行銷策略。

可解釋的人工智慧,能協助行銷人員制定策略與分析成果

人工智慧模型的可解釋程度須視行銷人員欲了解的內容而定。演算法背後的運作機制可能不是行銷人員關注的重點,他們希望了解更多的是哪些功能或系統輸入實例會影響模型產出的建議,以為後續行動進行更妥善的規劃。

舉例而言,人工智慧模型會基於不同信號而將顧客判定為猶豫型顧客。這也許是因為該顧客曾多次將游標移動到同一商品上,又或者是因為他將某件商品放入購物車很長一段時間,卻遲遲未結帳。行銷人員針對上述兩種情況所採取的行動可能會有所不同,對於前者,行銷人員只需推薦數種與該顧客關注商品相似的品項;對於後者則可考慮提供限時免運優惠,以觸發最終的購買行為。

林博士補充道:「行銷人員必須明白哪些關鍵因素會影響模型的決策。儘管對行銷人員而言,了解模型背後的演算法非常具有挑戰性,但假使能明白哪些因素在人工智慧的決策過程中發揮作用,將有助於提高模型的可解釋性。」

在討論可解釋的人工智慧時,未必要了解整個模型背後的複雜運作機制,只需明白哪些因素會影響其產出。換言之, 理解模型的運作原理是一回事,明白其為何產出特定結果則是另一回事,兩者不可混為一談。

XAI 能讓系統所有者或使用者解釋模型背後的決策過程,藉此了解其優缺點,進而推測該系統未來的運作方式。

例如,在進行影像辨識時讓人工智慧模型聚焦於照片的特定區域,可能會導引至不同的結果。一旦了解影像的哪些部分最可能促使模型產出特定結果或決策,使用者便可更有效地掌握並解釋人工智慧模型的行為模式。

除了協助制定策略外,XAI 也讓行銷人員和其他使用者能夠向管理階層及其他利害關係人解釋產出結果,而這對於闡述模型的輸出以及為何採用特定策略方面可說是十分管用。

然而,並非所有人工智慧模型都具備容易解讀的特性。 部分研究人員指出 ,與影像辨識、自然語言處理等深度學習模型相比,決策樹和貝氏分類器等演算法更具可解釋性。不過,以上論點是基於精確性和可解釋性之間的權衡。隨著模型結構漸趨複雜,非專業人士往往難以解釋清楚其背後的運作原理,但複雜的模型通常可達到更出色的效能表現。

可解釋的人工智慧,能協助開發者分辨偏見的好壞

林博士表示:「由於用以訓練模型的資料可能自帶偏見,且演算法在設計上也可能在有意無意間摻入偏見,因此,偏見無可避免地存在於所有人工智慧模型中。然而, 並非所有的人工智慧偏見都是壞事 。」

事實上,偏見也可用於做出準確的預測;但在將其應用於諸如種族和性別等敏感領域時,務必要採取謹慎的態度。

林博士進一步說明:「可解釋的人工智慧可協助我們區分模型在進行決策時,使用的是有益的或是有害的偏見,還可告訴我們在模型制定決策的過程中,哪些因素扮演的角色更為重要。 雖然 XAI 無法檢測出偏見,但仍有助於人類理解模型決策的過程是否存在偏見。」

林博士也補充,可解釋的人工智慧還能夠協助人們理解偏見的來源,究竟是源自用以訓練人工智慧模型的資料,抑或模型對於不同標籤的權重等。

運作透明化,模型開發人員的責任增加

對許多人而言,人工智慧的運作模式宛如「黑箱作業」:即輸入資料後,經由一連串不透明的演算法推導出結果,或提出應採取行動的建議。當模型產出的結果乍看之下似乎違背直覺甚至有誤時,便可能導致不信任的情況發生。

林博士解釋:「XAI 使這些模型對人類而言更容易理解、也更加合理,且每個人都可針對模型產出的結果進行研究,以決定是否採納其建議。換句話說,XAI 不僅將人類納入決策過程,更讓人們成為做出最終決定前的最後一道防線,使整個流程具備更高的可信度。

他也補充說明,未來的人工智慧模型將有能力向人們解釋其制定決策的方式,並將決策攤在眾人面前以供檢視,而這意味著模型開發人員的責任也將有所增加。相較於以往的黑箱作業,如今人們可以追溯人工智慧模型做出的決策,相信在不久的將來,會出現能自行解釋運作原理的人工智慧系統。

了解 AI 模型的運作機制,是企業的致勝關鍵

學術界至今已提出許多研究報告,希望促進人工智慧或其他演算法的自我解釋能力。

林博士指出:「有些模型要比其他模型更容易解釋。例如,深度學習模型就是難以解讀的模型之一,為了解讀深度學習模型的運作機制,某些研究會建議使用代理模型模仿深度學習模型的行為,因為代理模型往往更容易解釋。」

他還補充,另一種方法則是從模型的設計著手,建構更容易解釋的模型。例如,在神經網路中使用較少參數,將有望降低複雜度並實現相似的準確性,從而使模型本身更具可解釋性。

隨著越來越多企業部署人工智慧,能否了解模型背後的運作機制,儼然已成為企業致勝與否的關鍵。 唯有掌握人工智慧模型的運作方式,才能夠深入了解其決策背後的成因、識別任何須排除的偏見,從而增進人們對該系統的信任。XAI 不僅將人工智慧和機器學習的黑箱打開,更為人們提供瞭解模型運作模式的機會,把黑箱變透明!

欲了解更多人工智慧的技術文章與相關應用,歡迎參閱  Appier 部落格成功案例

(本文經原作者 林守德博士 授權轉載,並同意 TechOrange 編寫導讀與修訂標題,原文標題為 〈可解釋的人工智慧:讓黑箱變透明〉;意投稿者可寄至:[email protected],經編輯檯審核並評估合宜性後再行刊登。首圖來源:Appier)

延伸閱讀

【投稿】跨境電商在地化,如何應用 AI 優化行銷效能?
Google、軟銀都陣亡過!盤點 AI 專案失敗的 4 大原因
7 歲小孩獲得 IBM AI 認證,成為全球最年輕工程師!


點關鍵字看更多相關文章: