AI 怎麼規範才叫有倫理?微軟推出 AI 教戰手冊,6 大準則逐步破解

【為什麼我們要挑選這篇文章】人工智慧儘管能大幅改善人類生活福祉,但卻也因其強大算力存在潛在風險。假使犯罪者使用 AI 攻擊世界政府,並不斷反覆學習更新,去癱瘓市政系統,這將是一場科技大災難。

面對爆炸發展的技術,微軟、Google、臉書等領導性科技巨頭紛紛開始籌組委員會,探討 AI 應該怎麼規範,什麼樣的 AI 會被稱為「有倫理」。微軟交出來的成績單是什麼樣子?(責任編輯:陳伯安)

「《科技報橘》徵才中!跟我們一起探索台灣產業創新力 >> 詳細職缺訊息 
快將你的履歷自傳寄至  [email protected].com

人工智慧(AI)發展越來越快,衍生出的 AI 倫理議題也受到更多國際大廠關注。微軟在制訂 AI 倫理準則時,特別注重「以人為本」的思維,避免 AI 應用產生偏見。

微軟、Google、臉書皆已設立小組探討

早在 2017 年,Google 旗下 AI 研究公司 DeepMind 就宣布成立專門研究小組,探討 AI 倫理問題。Facebook(臉書)去年初宣布將資助德國慕尼黑工業大學,成立獨立的人工智慧倫理研究所,為社會和經濟用途的相關技術制定負責任的道德準則。

在這波浪潮下,微軟內部也成立了 AI 倫理道德委員會,由產品開發、研究員、法務、人力資源等各部門負責人組成,共同制訂政策來指導微軟 AI 產品開發。

微軟大中華區人工智慧倫理委員會共同召集人施立成接受中央社記者採訪說,AI 倫理在國外已經有蠻多討論,台灣政府和很多法律機構都在關注,科技部於去年 9 月也公布「人工智慧科研發展指引」,完善 AI 科技研發環境。

延伸閱讀》【Cathy 陪你打造智慧工廠】戰術篇:智慧工廠的資安治理怎麼做?

施立成強調,AI 相關研究要注重資料,最重要的是大數據,但是在資料蒐集和分析處理的過程中,還是需要人的介入,不能只靠演算法。微軟內部訓練也是為了避免潛在性偏見,例如開發者的家庭因素可能導致潛意識存在偏見,需要避免在寫演算法的過程中受到影響。

應用 AI 需要遵守的 6 大準則

為協助企業定義負責任的 AI 策略,微軟在官網提供的 AI 教戰手冊 中提出 6 大準則,包括公平、可靠、隱私和安全、包容、透明、負責。

舉例來說,微軟認為 AI 系統應該公平對待所有人,採用多元化且具備代表性的數據和可分析的技術來偵測及消除偏見;這需要各個領域的專家在 AI 系統設計階段就一起合作,並且能對數據和分析模型進行系統化評估。

在「透明」準則方面,微軟認為當 AI 協助制訂會影響人類生活的決策時,應該確保人類了解這些決策的制訂過程,例如 AI 系統運作方式、如何與數據互動,可以更容易找出潛在偏見、錯誤和意外的結果。

微軟 AI 教戰手冊傳送門

(本文經合作夥伴 中央社 授權轉載,並同意 TechOrange 編寫導讀與修訂標題,原文標題為 〈AI 蓬勃大廠忙補倫理學分 微軟以人為本推準則 〉,首圖來源:Pxfuel, CC Licensed。)

你可能感興趣

»一個「值得信賴 AI」長什麼樣子?歐盟發佈 7 條人工智慧的道德準則
»AI 搶先 WHO 一週抓出武漢肺炎!善用數據給政府的防疫啟示
»【文科生在哀號】學 AI 不只是理科生的事!日本政府:你讀文科也得要會
»【Cathy 陪你打造智慧工廠】戰術篇:智慧工廠的資安治理怎麼做?


無法突破「智慧製造」升級瓶頸?

回答 5 個關鍵大哉問,找出問題癥結點!

馬上破解

 

點關鍵字看更多相關文章: