電影《西部世界》中,機器人準備向人開槍的畫面。圖片來源:YouTube 影片截圖

【為什麼我們挑選這篇文章】人工智慧的發展迅速,讓人類開始思考未來人工智慧的進步,會對倫理道德造成什麼影響。

鑒於之後遇到才來解決,MIT 媒體實驗室就和哈佛大學合作,先行成立人工智慧倫理和監管基金」管理機構,好解決未來人工智慧可能發生的人文道德問題。

雖然人工智慧的出現為人類帶來大量的便捷、幫助,不過它的發展才剛起步,誰也不能保證它的威脅性多寡。在兼行科技的發展和保護人類安全的同時,人工智慧目前的存在,就像雙面刃一樣的不穩定。(責任編輯:張瑋倫)

雷鋒網消息,MIT媒體實驗室(MIT Media Lab)和哈佛大學伯克曼克萊恩互聯網及社會研究中心(Berkman Klein Center)共同成為了「 人工智慧倫理和監管基金」的管理機構。該基金將用於解決人工智慧所帶來的人文及道德問題。

雷鋒網了解到,除了LinkedIn 創始人Reid Hoffman、eBay 創始人Pierre Omidya 的非盈利組織Omidyar Network 各捐出的1000 萬美金之外,Knight 基金會也捐助了500 萬美元,此外,還有William and Flora Hewlett 基金會和Raptor 集團創始人Jim Pallotta 各捐出了100 萬美元。

這筆總計2700 萬美元的基金將由MIT 媒體實驗室和哈佛大學Berkman Klein 中心共同管理。將來,也會有更多的捐款者加入,基金的規模還將擴大。

「人工智慧將影響我們每一個地球人,對社會的各個領域意義重大。」Knight 基金會CEO Alberto Ibargüen 表示。

儘管人工智慧幫助人類乾了不少事,比如用自動駕駛技術來減少大量的交通事故,掃描醫學影像來發現癌症等等。但是有不少業界人士也在發出警告稱AI 很有可能在給人類帶來幫助的同時,也帶給人不小的威脅。

人工智慧系統能分析大量數據,但其中也可能存在偏見。

「 AI 的飛速發展帶來了很多嚴峻的挑戰,」麻省理工學院媒體實驗室主任伊藤穰一( Joi Ito)解釋道,「人工智慧給社會以及人類帶來了不可忽視的影響,機器變得越來越智慧,以至於有時候我們會擔心它們是否會脫離我們的控制。

其中最關鍵的挑戰之一就是,我們如何確保自己培訓的機器永遠不會產生並且放大人類的偏見,以此來困擾社會?我們該如何針對這項技術展開更廣泛,深入的討論?社會該如何與AI 共同演變?人們如何將計算機科學和社會科學連接在一起,開發出不僅『聰明』,更重要的是對社會負責的智慧機器?」

人工智慧倫理和監管基金將用於研究AI 應當如何承擔社會責任,例如教育、交通運輸和司法等領域的計算機程序怎樣確保公平性問題。該基金還希望探索出AI 是以何種方式與公眾展開對話的,幫助公眾理解AI 的複雜性和多樣性。此外,建立這項基金的必要性在於它將會跨越學科之間的障礙,打破不同領域的孤島。

MIT 媒體實驗室、哈佛 Berkman Klein 中心以及其他潛在合作者,將作為一種共同機制,加強基金組織的跨學科工作,並鼓勵交叉學科的並行對話和協作。

據雷鋒網了解,該組織預計在未來數年以階段式來達成目標,比如在MIT媒體實驗室原定於7月10日舉辦的AI研討會上將進行一定的補充。此外,該基金還將監督AI獎學金計劃,對一些相關的合作項目進行支持,引導AI向利於社會的方向發展。

協作型網路

MIT 媒體實驗室和哈佛Berkman Klein 中心在網路社區以及多學科人才的幫助下,使用機器學習從數據中學習倫理和法律規範,並且使用數據驅動技術來量化人工智慧對勞動力市場的潛在影響。

據悉,這項工作已經在兩個機構中開始進行。其中一個是自動駕駛汽車的合作小組,由Iyad Rahwan 領導,旨在討論汽車中相關的AI 道德複雜性;另一個是機器人小組,由Cynthia Breazeal 領導,旨在研究人類與機器人互動過程中所涉及的道德問題。

「正如18 、 19 世紀,工業革命對整個世界產生的影響那樣,AI 的影響力也是類似的。」Rahwan 表示,他將運輸系統和就業列為最可能受到自動化和人工智慧影響的領域之一。

「我們需要的是讓整個社會處在這些系統的控制環路中,包括技術專家、工程師、倫理學家、認知科學家、經濟學家、法律學者、人類學家、信仰領袖、政府監管者等等,以達到公眾效益。」

Breazeal 表示,「人工智慧為所有年齡和階段的人提供了深度個性化的學習體驗,」她強調人工智慧需要接觸發展中國家和少數派人群。同時,她補充到,「人工智慧也是一把雙刃劍,這種技術該如何惠及大眾,又該如何保護人類的隱私和安全?這些問題都需要慢慢思考。」

共同的目標

哈佛大學Berkman Klein 中心一直致力於研究以公共利益導向的解決方案,比如知識共享和美國數據公共圖書館。此外,目前它還和MIT 媒體實驗室合作,將一部分高水平的開發人員和高科技行業的專業人士匯集在哈佛大學進行為期三週的嚴格培訓,隨後還將展開12週的協同研究,讓各路人才共同探索網路安全問題。

哈佛大學Berkman Klein 中心的聯合創始人兼計算機科學教授Jonathan Zittrain 表示:「這些研究會幫助我們判斷AI 事業更深層次的目標。雖然有時人工智慧讓人擔憂,但是人類應該做的工作是確定和培養自身在技​​術面前的自主性和尊嚴,而不是去削弱技術。」

據了解,「人工智慧倫理和監管基金」將由一個小型董事會進行管理。此外,董事會在選舉出一組專家顧問,其中包括 Daniela Rus、Andrew,以及 Max Tegmark 等MIT CSAIL 實驗室的大牛。

麻省理工學院媒體實驗室主任伊藤穰一表示,現在對各個領域進行覆蓋是至關重要的。「我們決定創建一個動態網路,而不是建立一個機構。解決問題最好的方法就是展開跨學科、交叉領域的研究。我們這個項目只是一個開始。」

(本文經合作夥伴雷鋒網授權轉載,並同意 TechOrange 編寫導讀與修訂標題,原文標題為〈人工智能倫理與監管基金成立,MIT 聯合哈佛大學讓人類免於AI “迫害”〉。首圖來源:YouTube 影片截圖

延伸閱讀

與機器人上床算不算出軌?新一代性愛機器人將發售,隨之而來的是複雜的倫理爭議
未雨綢繆先定規矩,科技公司將開圓桌會議研討 AI 倫理