【TechOrange 編輯部導讀】

近年 AI 迅速發展,卻也衍生出法律道德層面問題,因此歐盟和中國、美國也都紛紛開始擬定相關草案或藍圖,以確保 AI 發展的倫理和社會意識。與此同時也出現不少反對聲浪認為這將限制未來創新技術的發揮空間。本文盤點全球 AI 法規現況,帶你了解這些國際上立法規範可能造成的影響。

最近 ChatGPT 引起全球熱議,這款 AI 聊天機器人不僅知識淵博,問答如流,甚至還能寫企劃和 debug,強大技術震驚各界。

然而隨著 AI 技術持續強大,社會上已開始衍生法律道德層面問題,例如 AI 的資料庫誤差可能造成演算法對文化或族群產生偏見等。各國也努力迎頭追趕技術發展的腳步,擬定相關法案來保護個人與社會。

AI 與演算法列管,歐盟與中國怎麼做?

中國於今年三月正式擴大限制企業使用演算法的方式,例如新增「用戶必須能夠選擇關閉演算法推薦服務」等規定,也要求阿里巴巴、騰訊和抖音等企業提交演算法原理以進行監管

目前較有機會發展成為全球 AI 監管模板的法案是歐盟提出的「人工智慧法(AI Act)」草案(簡稱 AIA)

AIA 針對不同的人工智慧系統(AI system)進行定義並分級,而法規內容多數是針對第一級的「完全禁止使用、會產生不可接受風險的 AI 技術」與第二級的「高風險 AI 技術」進行限制規範。規範內容包含用戶隱私、準確性與使用者揭露等規定,且根據不同地區或行業範圍,可能需要對應不同的法規內容。

許多聲音表示此草案內容對於 AI 領域管制領域與需揭露的項目內容過多,且定義不明確,將大幅限縮目前已在進行中的 AI 技術開發,限制未來創新技術的發揮空間。

而哪些人工智慧技術會被列為高風險、會受怎樣的監管也將會是台灣企業未來需要密切關注此法案進度的部分,例如:台灣科技業所開發的「員工面試與管理的 AI 系統」是否屬法案中被列為高風險的「在職場對員工進行管理目的的技術」?若是,雖然台灣非歐盟國家,但未來想在歐盟地區販售或提供該服務,系統就要調整成符合相關法規的內容,而這些開發勢必需要相當時程,企業須提前準備

此外,AIA 的罰款金額相當高,違反者最高將被處 3,000 萬歐元罰鍰或全球營收的 6%(以較高金額者處罰),不過目前 AIA 還在草案階段,預計還需要幾年才能完成立法。

 TO 延伸閱讀:人工智慧決策也會產生「偏見」,人類該如何用法律做好把關?

美國對 AI 技術管控採柔性態度

美國則在今年 10 月發布了「AI 權利法案藍圖(Blueprint for an AI Bill of Rights)」內容針對 AI 系統的運行訂定了五項大原則:「AI 系統應安全有效」、「演算法不應有歧視」、「使用者須保有數據隱私權」、「系統應進行揭露和解釋」以及「系統應提供使用者後備方案」,這份藍圖並非硬性法規,目前還不具約束力,但希望能達到宣導效果,幫助 AI 系統的設計和使用原則更加明確與安全。

藍圖發布後,有聲音認為無約束力的指標幾乎就等於無效,但也有部分支持者表示,不納管的柔性做法,較有利於 AI 技術蓬勃發展。(責任編輯:游絨絨)

(本文開放夥伴轉載,參考資料:CNBCweforumForbes圖片來源:lynchlaw-group.comPexels