【我們為什麼挑選這篇文章】近年來圖像識別突破、Waymo 無人車上路、Alphago 戰勝人類冠軍等等 AI 重大突破事件更是讓人工智慧進入話題高峰。於是各種對於 AI 的預測鋪天蓋地而來,包括恐懼 AI 未來以及期許 AI 發展兩派,但究竟該如何理性的去辨別這些說法的真偽呢?
這篇文章是機器人製造專家、MIT AI Lab 負責人 Rodney Brooks 以邏輯頗析有關 AI 預測這個主題常出現的 7 大陷阱、謬論。而這篇文章也機會是近年來最理性也最冷靜的 AI 預測解析文,雖然不短,但非常推薦閱讀!(責任編輯:劉庭瑋)
我們都被有關人工智能和機器人的未來的歇斯底里包圍了。這種歇斯底里體現在它們會多快變得有多強大上,以及它們會對工作造成什麼影響上。
比方說 Market Watch 近日出了一篇文章,其結論危言聳聽,說在10到20年內機器人將奪走目前一半的工作。它甚至還有有一張圖來證明這些數字。
這種主張是滑稽的。比方說,它假設說美國的地面維護工人在 10 到 20 年的時間裡將會從 100 萬人縮減到只用 5 萬人。這些領域目前有多少機器人在用呢?零。機器人在這些領域應用的實際展示案例有多少呢?零。類似的故事適用於上圖的所有其他的工作類別(其結論認為目前需要人力的工作當中 90% 甚至 97% 都會被大規模顛覆)。
錯誤的預測會導致大家對不會發生的事情感到恐懼。為什麼在人工智能和機器人的預測上總有人不斷犯錯呢?
以下我概括出了 7 種導致錯誤預測機器人於人工智能未來的思維方式。我們在很多有關 AI 未來的預測中都發現了這些思維方式的影子。我首先會列出注意到的 4 個一般的主題領域,然後就其現狀給出我的簡要判斷。
A、一般人工智能(AGI)
對 AGI 的研究是將思維實體從機器學習等當前AI技術中分離出來的一次嘗試。其想法是我們可以開發出運作非常類似這個世界上的生命的自動代理。不過AI近期取得的成功根本就不是這樣的。
一些人認為所有的AI都是AGI的一個實例,但是「一般」這個詞意味著AGI的通用性必須要比目前的AI通用得多。把目前的 AI 解釋成 AGI 的實例會給人一種現在的 AI 都這麼先進的感覺。
但其實目前的 AGI 研究無論從通用性或者成為持續存在的獨立實體來說根本就做得不好。目前 AGI 基本上還陷入在 50 年前遭遇的同樣的推理和常識問題上。像人工生命、模擬適應性行為等替代領域在上世紀 80、90 年代的確取得了一些進展,但現在已經止步不前了。
對此我的觀點是從原則上來說這當然是可能的。但是可能我們人類還沒有聰明到找出怎麼做到的辦法。哪怕可能性存在我個人也認為目前距離弄清楚如何做出AGI還非常非常遠。
B、奇點:把 AI 視作技術宗教!
奇點是指最終會有那麼一刻,一個基於 AI 有自己目的和目標的智能實體在進行 AI 研究方面要比我們人類表現還要出色。然後,在摩爾定律的不斷作用下,計算機會跑得越來越快,使得人工智能可以自行發展下去,就像物理學中穿越黑洞的奇點一樣,我們也完全不知道另一頭會發生什麼事情。
「相信」奇點的人樂於賦予後奇點的 AI 不可思議的能力,反正此後會發生什麼是相當難以預測的。我之所以給這種相信加上加重引號,是因為對奇點的信念往往會被當成一種宗教信仰。對於一些人來說這種信念還有額外的福利,那就是可以將自己的思想上傳到一台智能計算機上,這樣既可以獲得永生又沒有必須相信存在超自然的上帝的不便。永遠強大的技術性的 AI 對他們而言就是新的上帝。技術宗教!
一些人對於拯救日何時到來有著特別的信念——某位特別的奇點先知(注:應該是指庫茲韋爾)的信徒認為這一天會在 2029 年到來。
這種錯誤的預測很大程度上是受到了指數論的推動。這個後面我會繼續討論,這屬於 AI 預測方面的七宗罪之一。
即便計算機能力已經很強但這並不意味著我們接近於擁有可以進行人工智能研究,並且還不斷改編自身代碼從而變得越來越好的程序。
能夠理解計算機代碼的程序現狀如何呢?目前我們還沒有能夠像剛上了一個月的課的計算機科學專業新生那樣理解一頁程序的程序。AI 系統要想寫出比人寫的更好的AI系統還有很長一段路要走。
在神經層面模仿大腦是奇點崇拜者經常提到的另一種方法論。我們大概用了 30 年的時間完全弄清楚了秀麗線蟲 302 個神經元的「接線圖」以及其間的 7000 個連接。這對於理解行為與神經元之間的關聯方式極其有用。
但這是數百人長達 30 年的研究成果。而據試圖模仿秀麗線蟲的 OpenWorm 項目介紹,他們目前的工作還沒有做到一半。要想模仿擁有 1000 億神經元以及海量連接的人腦要走的魯還很遠很遠。所以如果你指望靠奇點上傳你自己到仿真大腦的話,我寧肯再拖幾百年再死。
C、價值觀背離
第三種情況是基於人工智能的機器非常擅長執行任務,這使得 AI 在這個複雜的世界裡表現得像個超人一樣。但它們跟人類沒有共同的價值觀會導致各種各樣的問題。
如果我最近購買過去某城市的機票,突然之間我瀏覽的所有要廣告獲得收入的網頁上都會出現去往同一城市的機票廣告。但我不會視之為超級智能,相反,這說明廣告安排算法設計得很糟糕。
不過以下是這種觀點的一位支持者的話:
知名的回形針案例是個合適的例子:如果機器唯一的目標是讓回形針數量最大化的話,它可能會發明出不可思議的技術,因為它會為此將可達宇宙的一切物質都轉化為回形針;但它的決定仍然是啞的(plain dumb,或者說愚蠢)的。
(注:牛津大學人類未來研究院院長、《超級智能:道路、危險和策略》作者 Bostrom 層提出過一個思想實驗:「回形針最大機」。假如有一台生產回形針的機器具備了超級智慧,其所有智力就會投入到更好更快更多地製造回形針當中,而最終將是整個地球都變成回形針。它的道德體係就是圍繞製造回形針而存在的,它並不愛你也不恨你,它只是把你看做是一坨可供製造回形針的原子而已。Bostrom 用這個例子說明機器能夠脫離人類控製而自己獨立運行。)
好吧,但在現實世界裡我們永遠也不會出現這樣的程式。一個足夠聰明的程式,會發明出推翻人類社會給它制定的目標的手段,但是它並不需要理解這些手段會不會給人類造成問題。考慮到技術可能會按照這種方式演進也一樣是 plain dumb,而且要靠後面討論的七宗罪中的多個錯誤才會出現這種情況。
同一位作者反覆提出我們需要研究出在數學上驗證人工智能系統的目標跟人類目標一致的手段。。
我認為研究人員提出的這個 C 問題看到了一個有趣的知性研究問題,然後發出了他們有力的聲音來引起大家的緊迫感。AI 的奉承者接受了這個問題,並將之變成了一個人類的存在問題。
順便說一下,我認為尋求(價值觀一致的)數學可證性是徒勞無功的。大型團隊幾年的努力都沒有辦法證明 1000 行的程序不會被外部黑客攻破,那麼規模大得多的AI系統的價值觀一致性自然就更加無法證實了。好消息是數千年來我們人類能夠成功地與本身也是自動化代理、有著自己的渴望以及超人力量的馬共存,甚至按照我們的目的去利用後者。但我們對於馬還沒有發現一條定理。至今都沒有!
D、真正邪惡、恐怖、滅絕人性的人工智慧實體
最後這一類跟 C 很像,但這種 AI 驅動的機器會反感人類,並且決定消滅後者。
至少從1960年代末開始,好萊塢就熱衷於做起了白日夢:比如說電影《2001:太空漫遊(2001: A Space Odyssey )》(1968年,設定場景為2001年),說的是造成了大肆;破壞的機器被緊閉在一艘太空船上;電影《巨人:福賓計劃(Colossus: The Forbin Project)》(1970年,背景是當時)的破壞程度更是達到了行星級規模。這些年來該主題經久不衰,最近的電影《我,機器人》(2004年,場