在許多人高度關注 AI 技術對於人類職業與產品運用上帶來顯著影響的同時,我們也應當思考在 AI 時代下,每一個人在隱私權和安全上受到的影響,因為 AI 其實也帶來了非常多隱私權及道德上的議題。
AI 技術發展給社會帶來新的難題
我們從一個很有趣的問題先開始,2018 年麻省理工學院(MIT)做了一個線上問卷調查:
一輛無人駕駛的自動車如果在行駛途中,發現快要撞上行人,一個是嬰兒,一個是老人,它現在必須做出抉擇,該留下嬰兒,還是留下老人?這時的演算法到底該怎麼來做決定?
他們把這個難題直接丟給全世界的人來回答,而得到的回應也非常有趣。
根據結果,台灣也上榜了,並與其他東方國家一樣,偏向選擇留下老人,顯示出東方國家敬老尊賢的文化;而歐美國家則比較講求獨立性、強調對於年輕人與新生兒未來的重視,因此以選擇留下嬰兒為主。
這項調查的結果其實反映出東西方文化及選擇上的差異。所以,在同樣一個 AI 的道德選擇上,每個國家的光譜其實完全不同,這就造成為什麼 AI 到後面會有很多道德選擇的一些難題。
我們再看一個較接地氣的例子,前年的時候,台鐵其實要導入一個智慧監控的攝影機,運用的就是 AI 人臉辨識技術,目的是為了預防犯罪,然而卻引起侵害人權的相關爭議,所以後來喊停。
當時會有如此大的爭議,主要是因為有幾種不同的選擇,有一派人主張,人臉辨識可以遏止犯罪,當然要無條件利用,但有些就覺得侵犯隱私,有些人則覺得應該在中間找個平衡點,兼顧隱私和打擊犯罪,才會贊成使用。
每個人的光譜可能都落在不一樣的地方,即便如此,就算我們最後決定出了一個打擊犯罪的智慧監控措施出來,配套措施仍有很多要討論的地方。
比如說,我個人不希望政府或民間單位把我們的臉存起來的話,我可以有這樣的機制去要求嗎?或是,百分之九十九都是好人,但為了打擊百分之一的罪犯,卻要監視百分之百的人,這符合政策上一直強調的比例原則嗎?若該政策由政府主要執行的話,那誰來監督政府?那還有誰來監督「監督政府的人」?
這個道德的議題就會無限制的延續下去,這也是為什麼現在各國在面對未來政策會有這麼多的掙扎及辯論。光是從一個簡單的台鐵例子,我們就可以看出,這樣的難題會持續在全世界發生。
所以我們實際上面臨到的,就是個人的隱私權和群眾有知的權利,這兩件事情現在因為技術的發展,也不斷地在衝突當中。
數位隱私權意識抬頭,產業界的因應之道
拉回產業面,我們可以看到最近幾家大公司的一些動作,其實也對於隱私權的爭議做出回應。
大家都知道,數位廣告的追蹤已經非常氾濫,消費者甚至於有些反感,所以幾個數位巨頭也對此做出回應和改善,比如說 Google 在瀏覽器上面就開始要淘汰所謂的 Cookie。
Cookie 就是一個追蹤你在網路上瀏覽行為的機制,讓廣告主可以對你進行精準的廣告投放。Google 就承諾在最近就要把 Cookie 逐漸的廢除,當然它有一些替代的機制來讓廣告主的整個生態還可以運作。
♦ TO 推薦閱讀:為什麼你該考慮刪除 Google Chrome 瀏覽器?
第二個就是在我們的手機上面,新版的 Android 現在也開始讓使用者可以拒絕讓開發者、廣告主存取廣告 ID,那無獨有偶,其實 Apple 是第一個跳出來開第一槍的。
他們把廣告主辨識手機使用者的 ID,直接用「使用者不加入就等同於廢除」的方式,更積極地直接把它廢除。就目前數據來看,只有 30% 左右的人願意選擇讓廣告主繼續在不同的 App 之間追蹤自己。所以不同科技大廠,對於隱私權的回應也稍有不同。
♦ TO 好文閱讀:蘋果釋出最新作業系統 iOS 14.5,隱私權控制把臉書嚇得皮皮剉!
想當然,整個產業界在 AI 技術上就會提出,在這個重視隱私權的世界當中,機器學習還有 AI 應如何持續發展?所以也有提出相對應的做法,其中一個就叫聯盟學習(Federated Learning),主打的是「見林不見樹」的概念。
也就是說,我可以在不辨識出個人身分的情況下,仍大致上去了解他的興趣可能是什麼,而不像以前的精準廣告追蹤,主要是見樹又見林。
現在大家想要發展的方向就是以隱私權為主的機器學習技術,以見林不見樹的方式來進行學習,所以像 Google 是率先提出該技術的公司,現在也運用這樣的技術在訓練一些語言模型。
例如針對我們在跟 Google 助理講話時的一些反饋和資料,Google 可以在不知道這是來自於哪一個使用者或不知道使用者隱私的情況之下,仍繼續強化他對於這個語言的辨識度,這些就是在隱私權興起的世界中 ,AI 技術的發展走向。
♦ TO 好文推薦:Google 用智慧鍵盤告訴你聯合學習(Federated Learning)的概念是什麼?
若來看各國的回應,最積極的當然就是對於人權和隱私最重視的歐盟,所以從 GDPR 開始,包括加州、巴西、南非,都提出了自己的資料保護還有隱私權的政策。
現在想要做跨國網路生意的公司,其實都在適應各國政府的法規,所以各國政府的法規加上每個科技巨頭,他們對於隱私權的一些回應,就造就了未來商業世界會如何形塑。
從 Deepfake 深偽技術來看 AI 應用的雙面刃
另一個值得討論的 AI 題目是 Deepfake 深偽技術,也就是 AI 在製造與合成影像、文字,或是圖片上,已經可以產生出幾可亂真,人類也無法辨識真偽的一些東西。
這樣的技術已經在 2018 年,由 Google 的一家子公司 DeepMind 做出來了,網路上也找得到一些 AI 合成的人臉照片,其中的表情、膚色跟動作其實都是 AI 製造出來的,但我們都難以辨識真假。
♦ TO 時事閱讀:小玉用 Deepfake 偷臉做謎片,台灣的數位犯罪該怎麼罰?
這就凸顯出一個非常重要的問題,發展到 2021 年的今天,你所見未必可信,所以你在網路上看到的,或者你在任何地方看到的一些素材內容,其實都要抱持著懷疑的態度去找出他是否為真,這也是 AI 帶來非常大的一個影響。
不過同樣的技術對於商業世界來說,仍可應用在好的地方。整體來說,一個技術有好有壞,即使是深偽技術,也可以賦能人類解決問題,甚至用於創作。
大家應該都看過《魔戒》這部小說或電影,作者最厲害的地方就是他在裡面創造出了一個叫昆雅語的語言,有它的文字、發音、文法,然後整套的語言系統都在裡面,而 AI 發展至今其實也可以透過深偽技術的核心技術,做到自動產生出文字。
電腦現在也具備創作及想像的能力,可以進行這種文字還有圖形的創作,所以現在我們在講的就是「生成任何東西(Generative everything)」。
小結來說, AI 系統現在創造出的文字、圖片、影像已經幾可亂真,人類的肉眼,基本上是無法辨識它的真假,我們已經進入一個嶄新的時代。
作者介紹:
程世嘉 Sega,跨國 AI 公司 iKala 的共同創辦人暨執行長,史丹佛大學電腦科學碩士,台大資管系學士,2015 年潘文淵獎得主,專長人工智慧。
過去曾任 Google 軟體工程師,參與 Android 多媒體框架、地圖及中文搜尋等專案,將機器學習融入這些產品,是台灣第一位登上 Google I/O 開發者大會的講者。
iKala 的使命是「AI 賦能」,讓客戶能夠以 AI 為核心來達成事業轉型、加速、及創造新商業模式的目標。