AI

當我們談到隱私權的時候,就不可能不談到資料。資料其實是一個很有趣的議題。

舉一個簡單的例子,Tesla 最厲害的就是它的自動駕駛,而它的自動駕駛是怎麼訓練出來的呢?其實就是大量蒐集駕駛在行車時的資料,將其回傳到整個企業中心的一個 machine learning 模型,不斷地訓練,並且將那訓練好的、更精準的模型,再回頭部署到每一輛車子上面,讓自動駕駛更安全。

這是 Tesla 在訓練整個自動駕駛採取的一種模式,可以說是一種分散式的訓練模式,因為當駕駛在開 Tesla 的時候,其實也是在訓練 Tesla,而且可以讓其他 Tesla 車主的車都變得更好。

資料擁有權:這些資料是特斯拉的?還是車主的?

這當中就衍生出一個議題,Tesla 累積的這些資料,到底是 Tesla 的,還是車主的?因為那是車主的駕駛資料,那車主應該跟 Tesla 收錢嗎?這個問題會帶來很多爭議性,所以我們先用一個比較簡單的例子來理解,為什麼這個問題不好解決。

農夫和養蜂人之間,其實處於一個很微妙的合作關係,因為農人的農作物需要靠蜜蜂來授粉,讓作物生長,以及到其它地方播種;養蜂人則需要採集蜂蜜去販賣,所以他們其實各有各自的需求,但是彼此依賴。

現在問題來了,在這樣的合作關係下,是養蜂人要付錢給農人,還是農人要付錢給養蜂人?到底是誰依賴誰比較多?結論是,農夫要付給養蜂人,因為農夫對於養蜂人的依賴是比較大的。

根據一個數據,授粉產業在全世界已經是六百億美金產值的事業,也就是說,在美國每天都會有人開著裝滿蜜蜂的卡車到不同的農田去販賣這些蜜蜂授粉的服務給農人,農人也會為此付錢,然後讓他們的農作物生長。

為什麼這樣的交易會形成?其實主要有兩點,第一個就是他們達成交易的摩擦力很低,雙方取得共識是容易的,也就是交易的成本很低;第二個就是雙方對於各自產出的所有權是清楚的,養蜂人擁有蜜蜂,需要的是蜂蜜,而農人則擁有農田,並想要農作物更蓬勃生長、大量生產。

所以他們對於這些資產的擁有權是清楚的,造成雙方交易可以成立,這其實就是經濟學上,在 1966 年就提出的寇斯理論

回歸到資料的議題,其實難處就在於資料的擁有權是不清楚的,一份資料可以無限制地複製,可能存在車主端,也可能存在 Tesla 那邊,這個資料擁有權就是不清楚的。

再舉一個大家近期比較容易理解的例子,就是打疫苗這件事情,如果我是一個要打疫苗的人,但是我現在不去打,那我是要為了我不打疫苗而付錢給整個社會,因為我不打疫苗可能會染疫,讓社會付出成本;還是說,人們要付錢給我,讓我去打疫苗,以免我危害這個社會?

這其實是存在兩面的難題,也是所謂寇斯理論在講的一個外部性的問題,其實兩種做法都可以,但存在爭議及選擇,沒有任何一方是對或錯。

資料也有同樣的問題,資料對公眾是好的,則企業可以任意的使用,還是說資料是個人擁有的,我應該把它當成一個資產來做交易、來看待,這就是以 Tesla 為例,說明一個在資料擁有權上面的問題,所以資料到底是不是自己的,這是現在與未來全世界發展下很重要、有待討論的議題。

可解釋 AI:全球 80% 以上貸款由電腦決定是否核放,「為什麼」機器這樣做決策?

針對 AI 對於社會層面的一些影響,我再分享一個值得討論的議題。當 AI 為我們做出越來越多決策的時候,不免就會有很多人好奇說,為什麼是這樣的決策?

Explainable AI 講的就是可解釋的 AI,為什麼 AI 幫我們做出這些決策,我們就得去聽、就得去依循?

這些問題可大、可小,比如說我們在 Amazon 買書的時候,AI 會推薦給一些我們想看的書,這時我們可能會欣然接受,然後去稍微看一下它推薦的東西,但是我們並不會特別計較,AI 為什麼知道我喜歡看這些書,我們只聚焦在消費行為上面。

但如果是在銀行貸款上面,對於 AI 為什麼叫銀行不貸款給我們等問題,就會衍生出機器做決定的時候,人類希望 AI 可以解釋的一些爭議。

2018 年的時候,歐盟就提出一個法案,就是解釋的權利,要求個人在面對企業,尤其是面對一些電腦自動化的決策時,可以正式對企業提出要求,解釋為什麼機器做出這樣的決定。比如說剛剛的例子就是為什麼銀行不貸款給我,我希望銀行可以做出回應。

大家可能不知道,現在全世界有 80% 以上的貸款,甚至有的國家高達 90% 到 100%,幾乎都是機器在決定要不要核放,它可能會看個人的信用紀錄、匯款紀錄、身家背景,來做一個評分,然後再決定要不要貸款給你。

TO 推薦閱讀:3 分鐘跑完理賠程序!保險新創 Lemonade 靠 AI 賣保單成美千禧世代最愛

而人類平常在做決策的時候,就已經很難解釋自己思考的脈絡可能是什麼,很多時候我們都是用直覺,或即使已經思考過,但若要真的把思考過程條列下來,對於人類和機器來說,其實都是不容易的。

所以在 AI 的領域,這就被稱為是 AI 黑箱的問題,現在有很多的學者和開發者,也希望能夠因應各國政府對個人的保護,對於 AI 進入到人類生活層面的保護,希望能夠在可解釋的 AI 技術上面有所發展。

TO 推薦閱讀:打破 AI 黑箱,各國政府極力發展的 Trustable AI 是什麼?

所以,舉一個最好的例子,其實人類到現在還是無法徹底地瞭解、或甚至完全無法瞭解 AI 怎麼下圍棋,因為我們在訓練 AlphaGo 的運算量,以及他一次能處理的圍棋步數預測的數量,其實已經遠遠超過人類可以理解的範圍。

因此,可解釋性這個問題,到底最後能不能獲得好的一個解決,目前還是一個未知數。

其中,韓國圍棋高手李世石在幾年前就宣布退休,主要也是因為他覺得人類永遠無法戰勝 AI,圍棋已經變成一個機器才能窮究的技藝,這也是讓他引退一個原因,其實也是在整個 AI 發展歷史上留下了一件蠻令人遺憾的事件,也是可解釋 AI 之所以間接受矚目的一個原因。

各國科技大廠,包括 Google 在內,現在也不斷地在研究可解釋 AI 這件事情,因為當 AI 已經進入我們生活範圍的時候,可解釋性會越來越重要。

TO 推薦閱讀:怎麼讓履歷一眼被 AI 相中?一文解析決定你面試晉級機會的「ATS 系統」

以人為本的 AI 越來越重要

許多人可能會好奇,AI 既然帶來這麼多的問題,那麼我們在這個世界當中,最好的自處方式到底是什麼?我想大家也已經有結論,就是「人類和機器,必須要更好的協作」。

這也是為什麼 iKala 在發展 AI 的過程中,選擇以人為中心來發展輔助人類的工具,而不是以完全取代人類來發展 AI 技術為主。

據世界經濟論壇提出,在 2020 年到 2025 年之間,人類在執行任務中的角色比重會逐漸減少,而電腦的角色比重會逐漸增多,這也是在未來五年,職場上一個會非常明顯的變化。

TO 精彩專訪:疫情下數位轉型需求大爆發!iKala 程世嘉:盼以東南亞經驗協助台灣企業

為因應這樣的趨勢,iKala 在經營公司的一個核心價值就是,在技術變動這麼快的情況之下,re-skill(技能再造)或 up-skill(技能升級)是我們每一個工作者都必須要持續精進的。

因此,我們也把終身學習列為打造 iKala 成為一個終身學習型組織的 key value。iKala 作為一家 AI 公司,也持續在這個產業當中扮演一個可以輔助產業、輔助個人,然後輔助全世界採用 AI 的一家公司。

看更多程世嘉專欄系列文章

疫情加速 AI 普及,為何企業導入仍有困難?

疫情加速 AI 時代來臨,擁有什麼職場技能才不會被 AI 取代?

Deepfake 事件的啟示:AI 已引領人類進入「眼見不能為憑」的時代