隨 IoT、工業 4.0 時代到來,企業要面臨的另一個重點議題就是「資安」,當企業大量運用 AI 與機器學習(ML),也必須思考要如何保護內部系統、網路以及各式的駭客攻擊。其中,除了原有的 AI 模型,其實具備解釋力的可解釋人工智慧(Explainable AI,簡稱 XAI)才真正能協助企業預測與防範攻擊的發生。

根據 Gartner 分析 ,過去企業運用的 AI 模型除了協助進行數據分析,事實上可能生成諸多帶有偏見、偏誤的結果,甚至使企業資安出現防護漏洞。究竟企業該如何解決,以及人類該如何相信 AI 技術,避免 AI 時代的資安問題?

XAI 成趨勢,增強企業透明度

隨著人工智慧發展越發達,系統也會變得越複雜,要理解全部決策原理基本是不可能的。然而,數據團隊可以透過數據結果的解釋方法,昇華到「機器推理」來協助進行判斷。機器推理是更進階的人工智慧領域,當機器學習已經實現廣泛的能力時,需要進一步訓練機器識別數據模式的能力,允許系統對事實進行推理

同時,相較於未知的機器學習,科學家應該深入探討 AI 模型的可解釋性,進而瞭解人工智慧怎麼下判斷。可解釋人工智慧就是讓專家能夠理解人工智慧結果的方法和技術。

可解釋人工智慧對企業風險管理的直接影響,包括讓企業得以詮釋機器學習產出的模型與結果、外界對於系統的攻擊跡象以及具體掌握模型附帶的測量機制等。可解釋人工智慧所帶來的結果,能讓企業為解決資安問題所做的黑盒子,有效達到預防效果,成為「白盒子」。同時,XAI 還能讓模型結果視覺化,增進企業基於模型預測所做的決策力

其他的實際應用包含:醫院中的資料感知系統,利用模型分析位置地點、工作人員易達性和患者數據(生命體徵、病史報告),合理解決患者病況警報,有效率動員工作人員並增進患者治療效果。

企業與 AI 建立互信機制,防範未來資安問題

透過可解釋性人工智慧,企業不僅能加速決策效率,更能夠讓企業資安防護網再升級。當企業猶豫於選擇簡單透明的模型,或是高效率不透明模型時,如果能掌握人工智慧新趨勢,讓機器學習的模型不再只是生硬的結果,而是可以防患於未然的模型,就能夠再往前躍進一步。

如今,對各行各業而言,AI 都正改寫運行規則。在增強信任技術時,若企業也同時能夠降低數據偏誤風險,並激發創新,讓 AI 模型與開發者一同確保結果準確性,就能有效增強對未來資訊安全的信心。

有學者指出,「AI 讓機器得以自我學習、做出自動化的決策,XAI 則是以一系列的機制產出人類可理解的結果。」當 AI 朝 XAI 前進,除了企業資安能大大升級,在更多工業 4.0 時代下的智慧城市、智慧醫療等應用,也將有顯著進展。

好主管秘笈來了!
9 個 how-to 和 3 個 don’t do
讓你的領導之路不再心累

>> 立即下載「台灣中高階主管職場秘笈:向下管理」

(本文開放合作夥伴轉載,資料來源:ForbesForbesGartnerBBCInnovation