【為什麼我們要挑選這篇文章】智力債務簡單來說就是「先知道結果,原因之後再說」。以藥物開發來說,很多時候人類會先藉由實驗與統計,找出能夠治療疾病的藥物,並應用在臨床治療;至於背後的機轉,則會晚些探討。藉由智力債務,人類可以更快開發新技術,並應用對人類有益的科技。
然而人工智慧卻大幅增加了人類的智力債務。人工智慧可以從海量數據中挖掘出相關性,建構出更精準的預測模型,然而人工智慧卻不知道背後的因果關係。些許的智力債務對人類有益,但大幅增加的智力債務會給人類怎樣的威脅?(責任編輯:郭家宏)
「《科技報橘》徵才中!跟我們一起定位台灣產業創新力 >> 詳細職缺訊息
快將你的履歷自傳寄至 [email protected]」
莫達非尼(modafinil)是一種常用的覺醒促進劑,用於治療睡眠紊亂、嗜睡症等。如果你仔細閲讀它的說明書,你會發現內容十分生硬無聊,也就是市面上常見的 Provigil,和很多藥物一樣,都被包裝在一個小紙盒裡。
紙盒裡大部分內容都是用於提示說明,包括藥物使用說明及注意事項、藥物分子結構示意圖。但是,在「作用機制」部分,卻有這麼一句嚇死人的話,其中關於「藥物作用機制」的一小部分內容,尤其是一句特定的描述則可能會讓人無語到想入睡:「有關莫達非尼如何使人保持清醒的作用機制尚不明了!」。
像莫達非尼一樣神秘莫測的藥物不在少數。很多藥物儘管獲得了監管部門的批准,並且被廣泛使用,但實際上也沒人知道它們到底是如何起作用的。
這種神秘性源自於通過反覆試驗進行藥物開發的過程。新藥物每年都會在人工培養的細胞或動物身上試驗,而其中最好且最安全的藥物才會進行人體試驗。在某些情況下,藥物的成功會促進新的研究從而解釋藥物的作用機制。比如,1897 年阿司匹林問世,但直到 1995 年才有人真正解釋了它是如何起作用的。
醫學領域裡,這種現象很常見。深度腦部刺激需要將電極插入患有特定行動障礙(如帕金森病)的患者腦部。這種方法已被廣泛使用二十多年,還有些人認為應該擴大它的使用範圍,如提高一般認知能力等。然而,沒有人能說清它的作用機制。
這種先找答案再解釋的方法,稱為「智力債務」。
在某些情況下,我們會馬上還清這筆智力債務。但是,其他情況下,我們可能幾十年都難以證實所用的方法理論。
只知道結果不知道過程,人工智慧提高人類的「智力債務」
在過去,智力債務一直侷限於一些需要進行反覆試驗的領域,如醫學。但現在這種情況發生了變化。
隨著人工智慧新技術,特別是機器學習的出現,我們的「智力信用額度」被提高了。機器學習系統在數據海洋中識別模式,並借助這些模式來解決一些模糊開放的問題。例如,提供一個有關貓和其他非貓科動物的標記圖片數據集,機器學習系統就學會了如何識別貓。同樣地,讓系統訪問醫療記錄,它就可以嘗試預測一個新入院病人的死亡可能性。
然而,大多數的機器學習系統並沒有發現因果機制(causal mechanisms)。基於統計相關性引擎的機器學習系統,無法解釋為什麼它們認為某些患者更有可能死亡,因為它們並不考慮數據的含義,而只是提供結果。當我們將這些系統融入日常生活時,我們將共同承擔越來越多的智力債務。
製藥領域的發展表明,在某些情況下,智力債務是不可或缺的。那些我們並不理解的干預措施已經挽救了數百萬人的生命。很少有人會因為不清楚其作用機制而拒絶服用拯救生命的藥物,如阿司匹林。
但是,智力債務的增加也會帶來不好的結果。隨著具有未知作用機制的藥物激增,發現不良反應所需的測試數量呈指數級增長。
如果清楚藥物的作用機制,就可以預測其不良反應。在實踐中,藥品間的相互作用往往是在新藥上市後才發現的,這就形成了一個循環。在這個循環中,藥物先被上市,然後被遺棄,期間還伴隨著集體訴訟。
通常,伴隨著新藥產生的智力債務有一定的合理性。但是智力債務並不是孤立存在的。在不同領域發現和部署的沒有理論基礎的答案,會以不可預測的方式使彼此交錯複雜化。
透過機器學習產生的智力債務風險,已經超出了過去反覆試驗糾正所帶來的風險。因為大多數機器學習模型無法提供做出判斷的理由,所以如果它們沒有對所提供的答案進行獨立判斷,那麼就不知道它們會在何時失誤。訓練良好的系統很少出現失誤,但如果一些人知道該向系統提供什麼數據從而故意製造失誤時,那情況就很糟糕了。
以圖像識別為例。十年前,電腦還無法輕易地識別出圖像中的物體。而今天,圖像搜尋引擎,像我們日常互動的許多系統一樣,都基於極其強大的機器學習模型。
谷歌的圖像搜索依賴於名為 Inception 的神經網路。2017 年,一個由麻省理工學院本科生和研究生組成的研究小組 LabSix,就透過改變一張貓的圖像的像素(儘管在人看來它還是一張貓的圖像),讓 Inception 有 99.99% 的把握認為它是一張鰐梨醬的圖像。
系統存在未知的漏洞,給了攻擊者巨大機會
Inception 系統顯然無法解釋究竟是哪些特徵使其能夠判斷一隻貓是否真的是貓,因而當提供特製或損壞的數據給系統時,也很難預測系統是否會出現失誤。這些系統在準確性上存在的未知漏洞,無疑給了攻擊者機會。
伴隨著機器學習系統所生成的知識的使用,這些差距也就隨之產生了。一些醫療 AI 經過訓練後,已經能分辨出皮膚腫瘤是良性還是惡性。
然而,就像哈佛醫學院和麻省理工學院的研究人員透過改變圖片的某些像素騙過系統,讓其做出錯誤的判斷,攻擊者也可能會利用這些漏洞實施保險詐欺。
在人工智慧系統預測能力的誘惑下,我們可能會放棄自身的判斷。但是系統存在著被劫持的可能,而我們沒有什麼簡單的方法來驗證其答案的正確性。
既然如此,我們能否能為智力債務創建一個資產負債表,從而跟蹤那些無理論知識的用途呢?
如果一個 AI 生成了一個新的披薩配方,那麼你無需多言,吃就對了!然而,當我們要用 AI 進行醫療健康方面的預測推薦時,我們就希望得到充分的資訊。
建立智力債務的資產負債表,建構背後的相關理論
建立並維護整個社會的智力債務的資產負債表,可能需要我們改進對商業機密和其他知識產權的處理方式。在城市中,建築法規要求業主公開披露他們的裝修計劃。同樣地,我們也可以要求圖書館或者大學接受託管,並公開那些公共使用的隱藏數據集和相關演算法,這樣研究人員就可以探索這些 AI 的模型及基礎數據,並建立相關理論,在我們智力債務的漏洞和脆弱性「到期」之前支付。
機器學習模型越來越普遍,幾乎每個人都可以建立一個,雖然這使得會計變得十分困難,但統計我們的智力債務卻是至關重要的。
機器學習系統單獨來看會持續產生有用的結果,但是這些系統並不是孤立存在的。這些 AI 收集並提取整個世界的數據,同時也產生著自身的數據,而其中很大一部分會被其他機器學習系統所使用。就像具有未知作用機制的藥物有時會相互作用一樣,那些背負智力債務的演算法也是如此。
別小看了這些債務疊加產生的影響,因為即使是簡單的互動也會導致麻煩。
2011 年,一位名叫 Michael Eisen 的教授透過過他的一名學生發現,在亞馬遜上販售的所有普通舊書中最便宜的一本 The Making of a Fly: The Genetics of Animal Design ,副本售價為 170 萬美元,外加 3.99 美元的運費。第二便宜的副本售價為 210 萬美元。
兩個賣家都有上千條好評,當 Eisen 連續幾天訪問該書的亞馬遜網頁後,他發現價格以一種規律持續上漲。A 賣家的價格總是 B 賣家價格的 99.83%,而 B 賣家的價格總是 A 賣家價格的 127.059%。Eisen 據此推測,A 賣家確實有一本副本,因此總是比第二便宜的賣家的價格低那麼一點;而 B 賣家卻沒有副本,所以價格才會定得更高。如果有人在 B 賣家訂購了這本書,那麼 B 賣家就可以從 A 賣家那裡買過來然後轉手賣出。
每個賣家策略的設定都很理性。但正是他們算法的相互作用產生了不合理的結果。數以千計的機器學習模型在不受監管的情況下進行互動所產生的結果更是難以預測。早已部署了尖端機器學習系統的金融市場是此類問題的溫床。
如果人類還不了債,控制權就會拱手讓給 AI
去年秋天,摩根大通(J. P. Morgan)分析師 Marko Kolanovic 認為金融市場的崩潰很容易再次發生,因為現在的交易大多基於自動化系統。智力債務在這些系統的相互作用下不斷累積,儘管有時它們並不是正式關聯的。如果沒有類似於資產負債表這樣的東西,我們就無法預測或者回溯這些智力債務是否值得承擔。
智力債務的增加也可能改變我們對基礎科學和應用技術的思考方式。與那些由政府支持,由學術研究機構運營的大型資本專案(如粒子加速器等)不同,機器學習工具很容易被私有企業或學術界所使用。
實際上,與電腦科學或者統計相關部門相比,Google 和 Facebook 更容易獲得那些能夠產生有用的預測結果的數據集;商人們很喜歡這些雖然無法解釋但足夠有用的知識,但智力債務也隨之增加了。但它們由公司所持有,使得那些致力於減少智力債務的學術研究人員難以接觸得到。
我們很容易地想到,因為機器學習知識的可用性,那些真正試圖理解機器學習背後理論基礎的研究者很難再獲得資金支持。去年 12 月,一位蛋白質摺疊的研究者 Mohammed AlQuraishi 撰文探討了其所在領域的最新進展:比研究人員更準確地預測出蛋白質摺疊的機器學習模型的建立。同時,AlQuraishi 為研究結果失去理論支持而感到惋惜。
「與這篇論文相比,概念性論文或者提出新理論假設的論文的聲望要低得多」,他在接受採訪時說到。在機器學習使得發現速度加快的時代面前,那些理論家們顯得那麼無關緊要,甚至是多餘的存在。與建立機器學習模型方面的專業知識相比,對特定領域的知識的重視程度自然也會降低。
金融債務將控制權從借方轉移到了貸方,從未來轉移到了過去,而不斷增加的智力債務也可能轉移控制權。一個充斥著不經理解的知識的世界會變成一個沒有明顯因果聯繫的世界,而我們只能依賴於我們的數據管家來告訴我們該做什麼,什麼時候做。例如,一個大學的招生委員會可能會將辛苦和不確定的人員篩選交給機器學習模型。這種方式可能會優化新生群體,不僅是為了學業上的成功,還可以帶來和諧的人際關係以及校友的慷慨捐贈。再者,我們理解這個世界的唯一方法,可能就是採用我們的 AI 系統,透過神經網路來微調我們的社交媒體資料,這樣我們就能夠完全「融入」社會。
也許所有的這些技術都是可行的,但反過來,也會帶來相應的問題。時下對人工智慧的批評大多集中在它可能出錯的方式上:它會產生或複製偏見;它會出錯;它可能會被用在不當的地方……
然而,我們也應該擔心,當人工智慧看起來十分正確時,我們又將面臨什麼問題。
原文報導傳送門
(本文經合作夥伴 大數據文摘 授權轉載,並同意 TechOrange 編寫導讀與修訂標題,原文標題為〈纽约客:人工智能欠下的智力债务,谁来偿还?〉。首圖來源:Pixabay CC Licensed)
更多關於人工智慧的發展消息
面對即將失效的摩爾定律,科學家用「稀疏學習演算法」打破深度學習的算力極限!
【人類連「輸」的實力都被超越了】日本開發「史上最弱」黑白棋 AI:只要它想輸,你就只能贏
這台「自駕腳踏車」裝了全球首款異構類腦晶片,AI 跨出了超越人類智慧的第一步!