Google 11 條準則建立 AI 高道德標準,是在維護正義還是在作繭自縛?

【我們為什麼挑選這篇文章】一個人宣揚自己的道德標準會有一個缺點,就是他必須遵守這些規範。 Google 面對人工智慧提出了「七要四不」,七個應遵守還有四個不行接觸的準則。

然而,如此公開的標準會對 Google 這個企業大佬造成什麼影響?這「七要四不」會轉過頭來綁住 Google 進化的手腳嗎?如果好奇的話,你可以看下去。(責任編輯:陳伯安)

在人工智能應該怎麼「管」這個事上,Google 大佬說話,我們要聽。

在國防部合作項目被員工要求關閉的風波之後,Google 發佈了公司在使用人工智能的十一條准則。

其中包括 Google 進行 AI 研發的七個目標,和 Google AI 絕不會進入的四種應用場景,堪稱 AI 道德規範的「谷 11 條」。

CEO 桑德爾・皮蔡(Sundar Pichai)在發佈准則的公開信里,也對國防部項目爭議做出了直接回應,表示今後不會讓 AI 涉及武器化的應用,但並未「一刀切」,和政府、軍方劃清界限。

作為 AI 界的帶頭大哥,Google 並未對多如牛毛的 AI 應用領域一一作出指引,但這麼多年經歷了這麼多「坑」之後,這本「谷 11 條」所體現出的智慧,也許會對所有關心 AI 道德問題的人有很大的幫助。

下面,硅星人就帶大家來理一理「谷 11 條」背後的思路。

Google 眼中什麼是好 AI

首先,設計產品之初,價值觀就要正。

Google AI(原 Google Research)研究院克里斯汀·羅伯森曾向硅星人闡釋,公司研發 AI 的領導思想是:按照對社會有益的原則進行設計,創造世界最棒的產品,讓這些產品實現商業化,在競爭中保持領先,同時,讓這些產品為世界做出貢獻。

Google 一向強調不作惡(don’t be evil)的價值觀,但它從來不是一家慈善機構。和所有科技公司一樣,它需要靠好產品賺錢,只不過,在對「好」產品的定義上,Google 和許多公司明顯不同。

「谷 11 條」一上來就告訴員工,AI 產品一要對社會有益,二不能加重現實社會已有的問題:

一、要對社會有益

當我們思考 AI 潛在的應用場景時,我們將會把一系列社會和經濟因素考慮進內,在那些整體收益遠遠超過可預見風險和弊端的領域,進行推進。

二、要避免製造或加強不平等的偏見:

AI 算法和數據集可以反映、加強或減少不平等的偏見 … 我們將努力避免人們受到不公正的影響,尤其是與種族、民族、性別、國籍、收入、性取向、殘疾以及政治或宗教信仰等敏感特徵相關的人群。

確保方向正確後,接下來 Google 要保證自己的產品是業界最棒的。准則的第三到七條列出了好產品需要滿足的標準。字裡行間繼續體現著以人為本的理念。

三、要保證安全性

四、要對人負責 … 我們的 AI 產品將易於接受合適的人類指導和控制

五、要結合隱私設計原則

六、要維持科學卓越的高規格

七、要可以用於符合原則的使用場景

仔細閱讀這些准則,你甚至可以找到對應的具體產品。

比如准則中 Google 提到,「AI 加強了我們理解大規模內容含義的能力,我們將努力利用 AI 提供高質量和準確的信息」。這說的不就是最近上線的新版 Google News 嘛。

此外可以看到,在這些對產品標準的要求中,Google 還加入了對最近科技界激辯的話題的思考:比如數據隱私,比如 AI 發展對人類本身可能帶來的威脅。

Google 眼中什麼是 AI 不可接觸的禁地

「谷 11 條」的結構是「七要四絕不」。

舉了七個目標後,Google 提出了四個絕對不碰的領域。首先,我們不會將 AI 應用於

一、帶來或可能帶來傷害的技術

二、武器或其他旨在給人們造成傷害的技術

做出這段表述的背景:今年 3 月時,有媒體曝光 Google 的一份內部文件,顯示該公司參加了五角大樓的無人機計劃 Project Maven,幫助開發應用於無人機的 AI 系統。

與此同時,又有媒體曝出 Google 在內部行為準則里刪掉了有三處「不作惡」的文案。

和恨不得公司再壞一點的 Facebook 不同,大批 Google 員工對這個事實感到憤怒不滿。內網激烈的討論後,超過三千名員工聯名上書 CEO,要求退出項目。

最終,公司向員工和外界妥協,宣佈 2019 年國防部合同到期後不再與續約。

正是這件事,推動了「谷 11 條」的誕生。據報道,Google 創始人賴利・佩吉、謝爾蓋・布林、CEO 皮柴和其他高管一起花了數月,最終制定了這版新的 AI 准則

不過,在這兩條表述里,Google 並沒有表達以後完全跟政府及國防部門徹底交割。

在強大的合作關係面前,Google 是糾結的,而這並沒有錯誤。比如在雲端計算上,國防軍事是個潛力巨大的領域。Google 的競爭對手亞馬遜、微軟都在積極競標國防部的雲計算及存儲業務,Google 不可能因噎廢食。

不過既然做了決定就要承擔後果,Google 的糾結之後肯定還會引發新的爭議和討論,Google 只好表示准則會根據公司新的理解而不斷改進。

自己不作惡,也不讓別人作惡

更具體來說,堅決不允許別人利用自己的技術作惡,這是不能跨過的底線。

四絕不的後兩條,AI 不會用於:

三、收集或使用信息用於監控並違反國際規範的科技

四、技術的目的違反了廣泛接受的國際法與人權原則的科技

從這兩個條款可以明顯看到,「谷 11 條」再次穩固了不作惡三個字的地位,而且還更進了一步,不僅自己不作惡,還要防止別人利用 Google 的技術作惡。

這在上面第七條的 AI 目標中也有體現:

許多技術同時擁有很多用途。我們會努力進行識別,限制可能有害或被濫用的應用。我們會評估以下因素:

首要目的和用途……以及與有害的用途有多接近

本質和獨特性:我們的技術是普世的還是有獨特應用場景的 規模:這項技術的使用是否會帶來重大影響

Google 在其中參與的性質:我們是在提供普通的工具,還是為用戶做集成的工具,還是在開發定制解決方案。

商業利益與企業道德拔河戰

Google 希望借保證自己的 AI 技術不被濫用,這麼做勢必意味著跟更多可能得到的利益說再見。一個直接影響可能是 Google 重返某些市場的難度會變得更大。

但沒有人會因為 Google 堅持它的真誠和正義而怪罪它。有些事情必須做出取捨。

部落格文章中,皮柴再次提到 2004 年 Google 上市時提到的兩個原則:「讓世界變得更好」,和「不作惡」:

我們當時就表明瞭我們要用更長遠目光看問題的願望,即使這意味著需要作出短期的犧牲。我們當時這樣說,我們現在還是這樣相信。

Google 的准則體現著一家已經 20 歲高齡的新技術公司,對可能是未來最關鍵技術,和道德的思考。它給出了一個寬泛,但又方向明確的指引,讓一些事情不再停留在想法和概念。

這本「谷 11 條」,或許也能推動其他公司,扔掉「技術中立」的保護傘,更誠實地參與到這個話題的討論中。

(本文經合作夥伴 品玩 授權轉載,並同意 TechOrange 編寫導讀與修訂標題,原文標題為 〈不作恶的 Google 回来了!发布“谷 11 条”,划清 AI 道德底线 〉。)

延伸閱讀

Google 把最重要的「Don’t be evil」規則拿掉了,是企業道德降低了嗎?
【2018 年 Google 高薪職位排行】專業 PM 價值超高,年薪 750 萬台幣起跳
AI 總是貼心人設想?Google 內部影片:其實它正全面接管你的人生!


邊緣運算的應用可行性在人工智慧技術演進下快速演進
台灣應該如何從中挖出商機,看見未來?

10/12(五)9:30 ~18:00,南港展覽館 504 會議室
把握數位轉型升級關鍵要素

立即購票

點關鍵字看更多相關文章: