【我們為什麼挑選這篇文章】近年來圖像識別突破、Waymo 無人車上路、Alphago 戰勝人類冠軍等等 AI 重大突破事件更是讓人工智慧進入話題高峰。於是各種對於 AI 的預測鋪天蓋地而來,包括恐懼 AI 未來以及期許 AI 發展兩派,但究竟該如何理性的去辨別這些說法的真偽呢?
這篇文章是機器人製造專家、MIT AI Lab 負責人 Rodney Brooks 以邏輯頗析有關 AI 預測這個主題常出現的 7 大陷阱、謬論。而這篇文章也機會是近年來最理性也最冷靜的 AI 預測解析文,雖然不短,但非常推薦閱讀!(責任編輯:劉庭瑋)
我們都被有關人工智能和機器人的未來的歇斯底里包圍了。這種歇斯底里體現在它們會多快變得有多強大上,以及它們會對工作造成什麼影響上。
比方說 Market Watch 近日出了一篇文章,其結論危言聳聽,說在10到20年內機器人將奪走目前一半的工作。它甚至還有有一張圖來證明這些數字。
這種主張是滑稽的。比方說,它假設說美國的地面維護工人在 10 到 20 年的時間裡將會從 100 萬人縮減到只用 5 萬人。這些領域目前有多少機器人在用呢?零。機器人在這些領域應用的實際展示案例有多少呢?零。類似的故事適用於上圖的所有其他的工作類別(其結論認為目前需要人力的工作當中 90% 甚至 97% 都會被大規模顛覆)。
錯誤的預測會導致大家對不會發生的事情感到恐懼。為什麼在人工智能和機器人的預測上總有人不斷犯錯呢?
以下我概括出了 7 種導致錯誤預測機器人於人工智能未來的思維方式。我們在很多有關 AI 未來的預測中都發現了這些思維方式的影子。我首先會列出注意到的 4 個一般的主題領域,然後就其現狀給出我的簡要判斷。
A、一般人工智能(AGI)
對 AGI 的研究是將思維實體從機器學習等當前AI技術中分離出來的一次嘗試。其想法是我們可以開發出運作非常類似這個世界上的生命的自動代理。不過AI近期取得的成功根本就不是這樣的。
一些人認為所有的AI都是AGI的一個實例,但是「一般」這個詞意味著AGI的通用性必須要比目前的AI通用得多。把目前的 AI 解釋成 AGI 的實例會給人一種現在的 AI 都這麼先進的感覺。
但其實目前的 AGI 研究無論從通用性或者成為持續存在的獨立實體來說根本就做得不好。目前 AGI 基本上還陷入在 50 年前遭遇的同樣的推理和常識問題上。像人工生命、模擬適應性行為等替代領域在上世紀 80、90 年代的確取得了一些進展,但現在已經止步不前了。
對此我的觀點是從原則上來說這當然是可能的。但是可能我們人類還沒有聰明到找出怎麼做到的辦法。哪怕可能性存在我個人也認為目前距離弄清楚如何做出AGI還非常非常遠。
B、奇點:把 AI 視作技術宗教!
奇點是指最終會有那麼一刻,一個基於 AI 有自己目的和目標的智能實體在進行 AI 研究方面要比我們人類表現還要出色。然後,在摩爾定律的不斷作用下,計算機會跑得越來越快,使得人工智能可以自行發展下去,就像物理學中穿越黑洞的奇點一樣,我們也完全不知道另一頭會發生什麼事情。
「相信」奇點的人樂於賦予後奇點的 AI 不可思議的能力,反正此後會發生什麼是相當難以預測的。我之所以給這種相信加上加重引號,是因為對奇點的信念往往會被當成一種宗教信仰。對於一些人來說這種信念還有額外的福利,那就是可以將自己的思想上傳到一台智能計算機上,這樣既可以獲得永生又沒有必須相信存在超自然的上帝的不便。永遠強大的技術性的 AI 對他們而言就是新的上帝。技術宗教!
一些人對於拯救日何時到來有著特別的信念——某位特別的奇點先知(注:應該是指庫茲韋爾)的信徒認為這一天會在 2029 年到來。
這種錯誤的預測很大程度上是受到了指數論的推動。這個後面我會繼續討論,這屬於 AI 預測方面的七宗罪之一。
即便計算機能力已經很強但這並不意味著我們接近於擁有可以進行人工智能研究,並且還不斷改編自身代碼從而變得越來越好的程序。
能夠理解計算機代碼的程序現狀如何呢?目前我們還沒有能夠像剛上了一個月的課的計算機科學專業新生那樣理解一頁程序的程序。AI 系統要想寫出比人寫的更好的AI系統還有很長一段路要走。
在神經層面模仿大腦是奇點崇拜者經常提到的另一種方法論。我們大概用了 30 年的時間完全弄清楚了秀麗線蟲 302 個神經元的「接線圖」以及其間的 7000 個連接。這對於理解行為與神經元之間的關聯方式極其有用。
但這是數百人長達 30 年的研究成果。而據試圖模仿秀麗線蟲的 OpenWorm 項目介紹,他們目前的工作還沒有做到一半。要想模仿擁有 1000 億神經元以及海量連接的人腦要走的魯還很遠很遠。所以如果你指望靠奇點上傳你自己到仿真大腦的話,我寧肯再拖幾百年再死。
C、價值觀背離
第三種情況是基於人工智能的機器非常擅長執行任務,這使得 AI 在這個複雜的世界裡表現得像個超人一樣。但它們跟人類沒有共同的價值觀會導致各種各樣的問題。
如果我最近購買過去某城市的機票,突然之間我瀏覽的所有要廣告獲得收入的網頁上都會出現去往同一城市的機票廣告。但我不會視之為超級智能,相反,這說明廣告安排算法設計得很糟糕。
不過以下是這種觀點的一位支持者的話:
知名的回形針案例是個合適的例子:如果機器唯一的目標是讓回形針數量最大化的話,它可能會發明出不可思議的技術,因為它會為此將可達宇宙的一切物質都轉化為回形針;但它的決定仍然是啞的(plain dumb,或者說愚蠢)的。
(注:牛津大學人類未來研究院院長、《超級智能:道路、危險和策略》作者 Bostrom 層提出過一個思想實驗:「回形針最大機」。假如有一台生產回形針的機器具備了超級智慧,其所有智力就會投入到更好更快更多地製造回形針當中,而最終將是整個地球都變成回形針。它的道德體係就是圍繞製造回形針而存在的,它並不愛你也不恨你,它只是把你看做是一坨可供製造回形針的原子而已。Bostrom 用這個例子說明機器能夠脫離人類控製而自己獨立運行。)
好吧,但在現實世界裡我們永遠也不會出現這樣的程式。一個足夠聰明的程式,會發明出推翻人類社會給它制定的目標的手段,但是它並不需要理解這些手段會不會給人類造成問題。考慮到技術可能會按照這種方式演進也一樣是 plain dumb,而且要靠後面討論的七宗罪中的多個錯誤才會出現這種情況。
同一位作者反覆提出我們需要研究出在數學上驗證人工智能系統的目標跟人類目標一致的手段。。
我認為研究人員提出的這個 C 問題看到了一個有趣的知性研究問題,然後發出了他們有力的聲音來引起大家的緊迫感。AI 的奉承者接受了這個問題,並將之變成了一個人類的存在問題。
順便說一下,我認為尋求(價值觀一致的)數學可證性是徒勞無功的。大型團隊幾年的努力都沒有辦法證明 1000 行的程序不會被外部黑客攻破,那麼規模大得多的AI系統的價值觀一致性自然就更加無法證實了。好消息是數千年來我們人類能夠成功地與本身也是自動化代理、有著自己的渴望以及超人力量的馬共存,甚至按照我們的目的去利用後者。但我們對於馬還沒有發現一條定理。至今都沒有!
D、真正邪惡、恐怖、滅絕人性的人工智慧實體
最後這一類跟 C 很像,但這種 AI 驅動的機器會反感人類,並且決定消滅後者。
至少從1960年代末開始,好萊塢就熱衷於做起了白日夢:比如說電影《2001:太空漫遊(2001: A Space Odyssey )》(1968年,設定場景為2001年),說的是造成了大肆;破壞的機器被緊閉在一艘太空船上;電影《巨人:福賓計劃(Colossus: The Forbin Project)》(1970年,背景是當時)的破壞程度更是達到了行星級規模。這些年來該主題經久不衰,最近的電影《我,機器人》(2004年,場景設定為2035年)中邪惡機器人計算機VIKI通過新的人形機器人NS-5接管了世界。
可是這種想法甚至比 C 錯得還要厲害。我認為這必然會引起大家在聯想到這些恐怖的危險時產生刺痛的感覺……
在本文當中,我將會談談軍事殺手機器人的問題——媒體往往會將其與問題D混淆在一起,但其實這是非常不一樣的問題。此外,我認為有關此類軍事機器人的許多看法都被誤導了,但這方面的問題需要另開一篇文章才能說清楚。
現在來談談大家經常犯的 7 個錯誤。這 7 個錯誤都會影響到有關場景 A、B、C、D 的出現可能性和時間尺度的判斷。但其中一些的錯估我認為會比另外一些更加嚴重。為此我會在 7 個錯誤的小節標題標註出來。而第一個錯誤會對所有地方都產生不同程度的破壞!
1. A、B、C、D:高估或者低估
Roy Amara是一位未來學家以及未來研究所(Institute For The Future)的聯合創始人兼總裁,風投家,也是矽谷的智慧大腦。他最著名的是他的格言——Amara定律:
我們往往會高估技術的短期影響而又低估了它的長期影響
這寥寥的幾個字可以短到用一條推特發佈出去,同時也可以從不同的角度進行詮釋。樂觀主義者可以這樣解讀,悲觀主義者也可以那樣解讀。這應該會讓一些樂觀主義者稍微悲觀一點,讓悲觀主義者稍微樂觀一點,至少是一陣子,然後再恢復常態。
Amara 定理的兩面性有一個很好的例子,那就是過去 30 年對美國的 GPS 看法。自從1978 年以來一個有 24(含備件的話是 30 顆)顆衛星組成的星群被放置到了軌道上面。地面站同時可以看到其中的4顆,然後計算其經緯度以及海拔高度。在科羅拉多州施里弗空軍基地(Schriever Air Force Base)的運營中心會不斷監控衛星的精確軌道位置以及原子鐘的準確性,然後上傳細微且連續的調整參數給對方。如果那些更新停止的話,1、2週之後 GPS 就無法準確地引導你在道路上行駛,然後過來幾個月後甚至會誤導你跑到另一個城鎮去。
GPS 的目標是為了給美軍的炸彈提供精確制導。這方面的第一次運用是在1991年沙漠風暴行動期間,GPS 果然不辱使命。但在 1990 年代對 GPS 還是有著很大的不信任,因為 GPS 並沒有兌現其早期承諾,直到 2000 年初時 GPS 的實用性才得到了美國軍方的認可。在實現早期對其的期望方面 GPS 經歷過一段艱難的日子,整個計劃一次又一次地幾乎面臨夭折。
今天的 GPS 已經算是處在長期之後,而它在今天的應用是當年不敢想像的。我的Apple Watch Series 2 在我外出跑步時會利用 GPS 記錄我的位置,而且可以精確到看清楚我在路的哪一邊。接收器尺寸之小、價格之低對於早期 GPS 的工程師來說是不可思議的。GPS 現在已經被那麼多的東西使用,很多是設計師從來都未曾想過的。它同步著全球的物理實驗,現在是同步美國電網保持其運轉的關鍵零組件,甚至還能使得真正控制股市的高頻交易商基本不會陷入災難性的計時錯誤中。所有的飛機無論大小都要用 GPS 來導航,它被用於跟蹤保釋出獄的煩人,決定著應該在全球的哪一塊地種植哪一個種子變種。它跟踪我們的卡車隊並彙報司機的表現,而地面的反射信號被用於確定地面的水分情況如何,然後確定灌溉的計劃。
GPS 從一個目標開始但讓它達到原先期望的效果卻需要一個漫長而艱辛的過程。現在它已經滲透到我們日常生活的方方面面,如果沒有它的話我們不僅會走丟,還會挨冷挨餓甚至可能都活不了。
過去 30 年裡我們在其他技術身上也目睹了類似的模式。一開始是很大的預期,然後慢慢地加大信心,超出了我們原先的預計。區塊鏈(比特幣是第一個應用)、人類基因組測序、太陽能、風能甚至日用百貨的送貨上門等都是這樣。
也許最引人注目的例子就是計算本身。1950 年代當第一台商用計算機部署起來時,對它會奪走所有工作的恐懼在不斷擴散(可見 1957 年的電影《Desk Set》)。但在接下來的 30 年時間裡,計算機幾乎沒有對大家的生活產生直接影響,甚至到 1987 年的時候消費者設備也幾乎沒有任何的微處理器。不過在隨後 30 年的第二波浪潮裡一切都變了,現在我們隨身都攜帶這計算機、我們的車子、屋子裡都滿是它們。
要想看清楚計算機的長期影響力是如何被不斷低估的,你只需要回到過去看看它們在舊的科幻電影或者電視節目中有關未來計算機的形象就知道了。1966 年《星際迷航》(TOS)裡面那台 300 年後的太空飛船計算機在 30 年後就變得很可笑,更不要說3個世紀後了。而這《銀河飛龍(Star Trek The Next Generation)》以及《銀河前哨(Star Trek Deep Space Nine)》這兩部時間跨度從 1986 到 1999 的系列科幻電影裡面,由於無法通過網絡(類似彼時的 AOL )傳送,大型文件仍然需要手工從遙遠未來的宇宙飛船或者太空站攜帶過去。而可供大家搜索的數據庫的 Web 之前的設計完全是缺乏生氣的。
大多數技術在短期內都被高估了。它們是耀眼的新生事物。人工智能不斷經歷著成為耀眼新食物和被高估的過程,1960 年代如此,1980 年代如此,我們認為現在有再次重演。(大型公司有關其AI產品的一些營銷語言其實都是妄想,可能會在不就得將來對他們形成反作用)
就長期而言,並非所有的技術都會被低估,但 AI 很可能是這樣。問題是多久才算長期。接下來要討論的 6 個錯誤有助於解釋未來 AI 的長期性被嚴重低估了。
2. B、C、D:把 AI 視作魔法,AI 也就變萬能
我還小的時候,Arthur C. Clarke 是科幻小說家的「三巨頭」之一(另兩位是 Robert Heinlein 和阿西莫夫)。但 Clarke 不僅是一位科幻小說家,他還是發明家、科學作家以及未來學家。
1945年,他寫了一封信給《Wireless World》,裡面談了有關英語研究的地球同步衛星的想法,當年10月,他發表了一篇論文概括瞭如何用於提供全球無線電覆蓋的辦法。1948 年,他寫了一篇短篇小說《The Sentinel 》,這成為了 Stanley Kubrick 的 AI 電影鉅作《2001:太空漫遊》的核心想法,電影製作的同時 Clarke 還寫了一篇同名的書,解釋了許多觀眾感到迷惑的問題。
1962 到 1973 年間,Clarke 提出了三條格言,也就是後來所謂的 Clarke 三定律(他說牛頓也只有 3 條定律,所以 3 條對於他來說也足夠了):
定律一:如果一個年高德劭的傑出科學家說,某件事情是可能的,那他可能是正確的。但如果他說,某件事情是不可能的,那他也許是非常錯誤的;
定律二:要發現某件事情是否可能的界限,唯一的途徑是跨越這個界限,從不可能跑到可能中去;
定律三:任何非常先進的技術,初看都與魔法無異。
個人而言我會對他的第一條定律的第二句話比較提防,因為對於 AI 的發展速度我要比其他人保守得多。不過目前我先來講講第三定律。
想像我們有一台時光機(這本身就是強悍的魔術……),可以把牛頓從 17 世紀末帶到劍橋大學的三一學院禮拜堂。他在那裡的時候那個禮拜堂已經有 100 年的歷史了,所以在沒有意識到當前的日期的情況下他大概不會對自己出現在裡面感到非常震驚。
現在給牛頓看樣東西。從你兜里掏出一部 iPhone,開機,屏幕亮了起來,然後把佈滿圖標的手機交給他。這個通過棱鏡揭示了白光是如何由不同色光的成分構成的科學家無疑會對如此小的一個東西能在禮拜堂產生如此豐富的顏色感到驚奇。現在再播放一部英國鄉村的風景電影,可能再加上一些他熟悉的動物——內容裡面不會出現任何揭示未來的東西。然後再播放一些他熟悉的教堂音樂。再給他看 500 多頁他的巨著《自然哲學的數學原理》的個人註釋副本,教他如何利用手勢操作來放大文字。
牛頓能不能開始解釋這小小的設備究竟是怎麼做到這些的呢?雖然他發明了微積分並且對光學和重力做出了解釋,但牛頓永遠也無法分辨化學與煉金術。所以我認為他會感到困惑,對這台設備究竟是什麼東西哪怕連一點思路都沒有頭緒。對於他來說這設備跟神秘學(牛頓晚年痴迷)的化身無異。對於他來說這跟魔法沒有區別。記住,牛頓可是非常聰明的傢伙。
如果某個東西是魔法的話就很難知道它的局限是什麼了。假設我們進一步給牛頓看到它是如何照亮黑暗、如何拍照和拍電影並且記錄聲音的,如何被用作放大鏡以及鏡子的。然後再給他炫一下其算術運算速度有多快,可以精確到小數點後多少位的。我們甚至還可以給他看看他的走路步數是多少。
牛頓還會把猜測面前的這個東西會做哪些事情呢?他會不會猜可以用這個東西把人馬上帶到世界任何一個地方?棱鏡可以永遠工作下去。他會不會猜測 iPhone 也能一直工作下去,而不會理解這個玩意兒需要充電(記住,我們逮住他的時候距離法拉第誕生還有100年,電的概念還沒有出現)?如果沒有火它也能成為光源,那是不是也能變出金來?
在想像未來技術的時候我們都會出現這樣的問題。如果它距離我們今天能夠理解的技術太遙遠的話,那麼我們是無法知道該技術的局限性的。這時候它開始變得與魔法無異。
當一項技術超越了這條魔法線之後,一個人說的任何東西都不再可以證偽,因為它是魔法。
在試圖跟人爭論我們是否應該對純粹的 AGI(且不說上述 C、D 情況)感到恐懼時,我經常會遇到這樣的問題。我被告知我並不理解它有多強大。這不是一個論據。我們甚至都不知道這樣的東西是否存在。我看到的一切跡象均表明我們對怎麼造這樣的東西毫無頭緒。所以它的屬性是完全未知的,在修辭上它就迅速變成了魔法和超級強大。沒有限制。
要小心哪些有關具有魔力的未來科技的論據。因為這些論據你永遠也無法反駁。因為它以信念為基礎,而不是科學依據。
3. A、B、C:表現與能力
估測與我們互動的個人的能力是我們大家都會的社會技能之一。誠然,有時候「脫離群體」的問題往往會超出我們的預計,而這些就是種族主義、性別歧視、階層歧視的根源。不過就一般而言,我們會利用一個人執行特定任務的表現作為線索來估計他們執行不同任務的表現。我們能夠通過觀察執行一項任務的表現來進行歸納,猜測其是否勝任其他範圍大得多的任務。我們憑直覺來理解如何從一個人的表現水平去歸納出他們在相關領域的能力。
當我身處外國城市時我們在街道上找陌生人問路時,我自信地用我們使用的語言回答並且給出似乎有道理的方向指示,我們認為把我們的幸運往前推進一步是值得的,然後再詢問當地的支付系統在哪裡因為我們想搭公交到處走走。
如果我們的小孩能配置自己的遊戲機連上家庭 wifi 我們就會猜測如果激勵手段足夠的話他們還會幫我們把新的平板電腦也連上相同的網絡。如果我們注意到某人會開手動檔的車,我們就會相當肯定他們一樣也能開自動檔的車。
如果我們走進一家大型硬體商店詢問一位員工特定物品放在什麼地方,比方說家庭電氣安裝用具放在哪裡,而那個人卻帶我們去到園林工具通道,我們下次大概不會再問同一個人去哪找某個浴室設施。我們會估計他們不僅不知道電氣安裝用具放在哪裡,而且連整個商品佈局都不清楚,所以我們會另外找一個人去問位置。
現在我們再來看看更接近今日 AI 系統表現的另一個例子。
假設有個人告訴我們一張照片是有人在玩飛盤,然後我們自然會假設他們能夠回答類似「飛盤是什麼樣的?」,「一個人大概能扔多遠?」,「人可以吃飛盤嗎?」,「一次大概有幾個人在玩飛盤?」,「今天的天氣適合玩飛盤嗎?」這樣的問題。我們不會預期會說自己不知道圖片中發生了什麼的、來自不同文化的人能夠回答所有那些問題。今天的圖片標記系統通常可以給網上的照片出正確的標籤,比如「人在公園玩飛盤」,但是不可能回答出那些問題。它們能做的只是可以給更多圖像打標籤,根本不能回答問題。此外,它們對人是什麼,公園往往是在戶外,人有年紀,天氣不僅僅是決定照片的樣子等東西都一無所知。
不過這並不意味著那些系統就一無是處。它們對搜尋引擎公司具有極大價值。光是把圖像標記好了就能讓搜尋引擎填補從搜尋文字到搜尋圖片的鴻溝。還要注意搜尋引擎對任何查詢往往都會提供多個回答然後讓人對前面幾個回答進行審核確定哪些是實際相關的。搜尋引擎公司努力想要提高自身系統的表現,拿到最好的回答放到排名前5左右。但這需要人類用戶的認知能力,所以他們不需要每次都先得到最好的回答。如果他們只得到一個回答,無論是搜尋「巴黎的好酒店」,還是只提供「有趣的領帶」一張可選圖片的電子商務網站,其用處就沒那麼大了。
問題出在哪裡呢?大家聽說某個機器人或者 AI 系統已經能執行某種任務了。然後他們就從那種表現歸納出一種認知性相同任務預計具備的一般能力。然後他們再把這種泛化到機器人或 AI 系統。
今天的機器人和 AI 系統相對於我們能做的事情在能力上是極其狹隘的。人類的那種概括根本就不具備。而做出這種概括的人就錯得太離譜了。
4. A、B:手提箱單詞(Suitcase words)
我在我的一片解釋機器學習機制的文章中簡單提到過手提箱單詞(suitcase words,Marvin Minsky杜撰的詞,意思是說一個單詞包含有很多含義,就像手提箱打開後裡面有很多東西一樣)。在那篇文章中我討論了「學習」這個詞應用到人的身上可以有很多種類型的學習。正如我所說那樣,人類用於學習不同類型的學習當然會有不同的機制。學習使用筷子跟學習新歌的調子當然是非常不同的體驗。學習寫程式跟學習在特定城市穿行也會有很大的不同。
當大家聽說機器學習取得了突飛猛進時,他們會考慮在一些新領域的機器學習,他們往往將人學習該新領域的心智模式套用過去。然而,機器學習是非常脆弱的,每一個新的問題領域需要研究人員或者工程師的大量準備,要有特定目的的編碼來處理輸入數據,需要特殊用途的訓練數據,以及定制的學習結構。今天計算機的機器學習根本就不是像人類的那種海綿式的吸收,可以無需進行手術般篡改或者有目的開發的基礎上就能在新的領域取得快速進展。
類似的,當大家聽說計算機現在可以擊敗世界國際象棋冠軍(1997年)或者圍棋世界冠軍(2016年)時,他們往往認為機器就像人一樣在「下」棋。當然在現實中這些程序對遊戲是什麼樣以及自己的下法其實是一無所知的。就像那篇大西洋月刊的文章指出那樣,李世石只需要 12 盎司的咖啡就能思路敏捷,而 AI 程序 Alphago 作為分佈式應用卻需要大量的機器部署,並且要有超過 100 位科學家的背後支撐。
人在比賽的時候規則的一點小改動並不會讓他們迷惑——好的玩家懂得適應。但 Alphago 或者 1997 年擊敗卡斯帕羅夫的深藍就不行。
手提箱單詞導致大家在理解機器執行人類能做的事情有多好時會誤入歧途。而另一方面,AI 研究人員,更糟的是其所在機構的新聞處則渴望宣稱自己所取得的進展就是手提箱單詞之於人類的一個例子。這裡重要的是「一個例子」。無論研究人員再怎麼小心(不幸的是並不是所有人都那麼小心),只要研究結果傳到了新聞辦公室再傳到外部媒體那裡,細節很快就被弄丟了。新聞頭條開始吹噓那個手提箱單詞,並且誤導對AI 的一般理解,以及距離實現更多還有多近。
還有,我們甚至還沒怎麼談到 Minsky 列舉的許多有關 AI 系統的手提箱單詞;比如意識、經歷或者思考等。對我們人類來說在沒有意識、或者沒有下棋經驗,或者思考走法的情況下,下棋是很難想像的。迄今為止,在實現手提箱單詞所代表的靈活性方面,我們的 AI 系統還沒有一個提升到入門級的水平。而當我們的確開始可以在特定 AI 系統運用其中一些單詞時,媒體和大多數人可能又會再度把這種能力過度一般化了。
我擔心的是這些單詞的部分含義哪怕只是在非常狹隘的一方面得到了證明大家也會過度一般化,以為機器在具備智能的這些方面已經接近類似人類能力的大門。
用語很重要,但只要我們用一個詞語描述有關 AI 系統的某個東西時,如果這個詞也適用於人的話,我們發現大家就會高估其含義。迄今為止大多數適用人類的單詞在用到機器身上時,都不過是用在人身上含義的萬千之一而已。
以下是一些應用到機器身上,但在能力方面完全不像人類的的動詞:
預期(anticipate)、擊敗(beat)、 分類(classify)、 描述(describe)、 估計(estimate)、 解釋(explain)、 產生幻覺(hallucinate)、 聽(hear)、想像(imagine)、 企圖(intend) 、 學習(learn)、 建模(model)、計劃(plan)、 玩(play)、 認識(recognize)、讀(read)、 推理(reason)、 反映(reflect)、 看(see)、 理解(understand )、走(walk)、寫(write)
這導致大家會誤解然後高估了今天的人工智慧的能力。
5. A、B、B、B……:「指數性」謬論
很多人都遭受過所謂的「指數論」之苦。
每個人對摩爾定律都有自己的想法,至少知道計算機會像發條般精確地變得越來越快。
其實摩爾的說法是晶片可容納的元件數量每年都會翻番。我曾經寫過一篇文章說明這個規律在見效了 50 年之後終於要走到頭了。1965 年摩爾做出預測的時候所用的下面這張圖只有 4 個數據點:
他的推斷只有 10 年時間,但是規律延續了 50 年,儘管時間常數逐步從1年延長到2年,而現在它終於走到了盡頭。
把晶片的元件數翻番使得計算機速度也加倍。而且還使得內存晶片每2年容量變成之前的 4 倍。這還導致了數字照相機分辨率越來越高,LCD 螢幕像素呈指數增長。
摩爾定律見效的原因在於它適用於真/假的數字化抽象。存在電荷或者電壓嗎?當電子數減半再減半時答案還是一樣的。但當減半到只剩下幾個電荷時量子效應就開始發揮主導作用,而我們的矽晶晶片技術現在就走到這個關節點上。
摩爾定律,以及像摩爾定律這樣的指數定律會因為三個不同的原因失效:
1. 達到物理極限,使得減半/加倍的過程不再見效。
2. 市場需求達到飽和,使得定律繼續的經濟驅動力消失
3. 一開始可能就不是指數性過程。
當一個人受到指數論影響時,他們可能就會無視上述任何一個原因,並且認為他們用來證明自己論點的指數性還會繼續。
在第一個原因的作用下摩爾定律現在已經步履蹣跚,但正是因為摩爾定律 50 年的作用才導致了技術業的不斷創新和矽谷、風投的崛起,讓一批極客(geek)成為全世界最富有的人,這也導致太多的人認為包括 AI 在內的技術的一切都是呈指數性發展的。
很多指數性過程其實只是「S曲線」的一部分,這一點很多人都應該知道,也就是說到了一定時候超級高速的增長就會放緩。諸如 Facebook、Twitter 等社交平台用戶數的指數性增長最終必將變成 S 曲線,因為可變成新用戶的人數是有限的,所以指數性增長不可能一直持續下去。這就是上面第二個原因的例子。
但還不止這些。有時候僅是來自個人用戶的需求有一陣子看起來也像是指數性的,但隨後就變得飽和了。
回到本世紀初時我正在管理著 MIT 一家很大的實驗室(CSAIL),需要給超過90家研究小組籌集研究經費,我試圖向贊助商表明 iPod 的內存增長有多快。跟摩爾不一樣的是我有5個數據點!數據是關於 400 美元可以給 iPod 提供多大存儲。數據如下:
數據呈現出完美的指數性。然後,我再向外推幾年詢問這些內存都可以用來做什麼。
如果外推到現在預計 400 美元的 iPod 應該有 160000 GB(或者160TB)的內存。但是今天最高配的 iPhone(售價超過400美元)也只有 256 GB的內存,還不到 2007 年的 iPod 的2倍,而最高配的 iPod 也只有128GB,相對於 1 0年前的型號內存反而還下降了。
當內存容量大到可以容納任何理性之人的完整音樂庫時,這個特別的指數性就會突然之間崩塌。當客戶需求不再時指數性也會停止。
繼續,由於深度學習的成功我們已經目睹了AI系統突然有了很好的表現。很多人似乎認為這意味著 AI 相當於乘數效應的性能提升會繼續常態化進行下去。但其實深度學習的成功是 30 年不懈努力的結果,沒人能夠預測到這一點。這只是個孤立事件。
這並不意味著不會有更多的孤立事件,也就是一潭死水似的 AI 研究突然會給許多 AI 應用插上翅膀。但是這種情況的發生頻率如何並沒有「定律」可循。這裡面並沒有物理過程,就像摩爾定律裡面的大量材料那樣為 AI 的創新提供動力。這就是上面的第三個原因的例子。
所以當你看到有人把指數性增長作為 AI 發展的判斷依據時,記住並不是所有所謂的指數性一開始都是真的具備指數性特徵的,而有的在達到物理極限或者缺少更多的經濟影響時時就會崩塌。
6. C、D:好萊塢場景
很多好萊塢科幻電影的情節都是這樣的:世界跟今天的還是一樣,除了一個轉折。當然對於電影來說外星人入侵地球是講得通的。一切都像往常一樣,但隨後有一天外星人突然就出現了。
這類世界的單個變化對外星人來說是具有邏輯意義的,但對於新技術來說如何呢?在現實生活當中很多新技術多多少少是同時發生的。
有時候在好萊塢的現實裡面對於為什麼在人類的技術世界裡面會出現單個的顛覆(其他都沒有變化)有著一定的合理性解釋。比方說《未來終結者》裡面就有通過時間旅行穿越的來自未來的超級技術,所以施瓦辛格扮演的超級機器人的出現不需要一個積累的過程。
但在其他一些電影裡面情況似乎有點愚蠢。
在《機器管家》裡面,有一幕是 Sam Neill 扮演的 Richard Martin 坐下來由 Robin Williams 扮演的人性機器人服侍吃早餐。他一邊吃早餐一邊拿起一份報紙來看。報紙!印刷的報紙。而不是平板電腦,或者類似 Amazon Echo 這樣的設備播放部落格,這種設定跟互聯網並沒有直接的神經連接。
在《銀翼殺手》中,哈里森·福特扮演的 Rick Deckard 想要接觸 Sean Young 扮演的機器人 Rachael。故事中 Rachael 跟人是難以分辨的。Deckard 是怎麼跟她接頭的呢?通過投幣式公用電話。你得往裡面塞進硬幣。這種玩意相信本文的許多讀者從來都沒見過。
這就是好萊塢電影的兩個例子,在這些例子當中作家、導演、製片想像會有一個人形機器人,它能夠看、聽、說,並且像人一樣行動——幾乎就是 AGI 了。其中涉及的神乎其神的材料和機制姑且就不管了。但那些創意人才卻缺乏想像,或者意願去考慮世界的其他方面可能也會隨著該技術的形成而改變。
結果證明,很多 AI 研究人員和 AI 權威,尤其是那些沉溺於預測 C、D 的悲觀主義者,其想像力也類似地受到挑戰。
除了許多 C、D 的時間尺度預測錯了以外,他們還忽視了一個事實,那就是入股我們最終能夠開發出那麼聰明的設備的話,那時候的世界跟我們現在的那個一定會有顯著的不同。我們不會突然被此類超級智能的出現給嚇到。它們會在技術上逐漸演進,我們的世界會變得不一樣,會充斥著許多其他的智能,而且我早已經有了很多體驗。
比方說,在 D(想要幹掉我們的邪惡超級智能)的出現很久之前,我們會看到不那麼聰明和好戰的機器出現。在此之前會是脾氣真的很暴躁的機器。再往前則是相當乏味的機器。而在它們之前則是自大討厭的機器。
這一路上我們會改變我們的世界,既要為了新技術調整環境,也要對新技術本身進行調整。我不是說可能不會有挑戰。而是說未必回想很多人以為那樣是突然的、意料之外的。關於令人震驚場合的天馬行空的想像是沒有幫助的——這些永遠都是錯的,或者甚至連接近都算不上。
「好萊塢場景」是很好的論證手段,但通常跟未來現實並沒有任何關聯。
7. B、C、D:部署速度
隨著這個世界變成了軟體,新版本的部署頻率在一些行業已經變得非常高。像 Facebook 這樣的平台的新功能幾乎是按小時為周期部署的。對於許多新功能來說,只要通過了集成測試,如果現場出現問題需要回退到舊版本的話經濟的負面影響是非常小的——我經常發現在此類平台上使用的功能突然失效 1 小時左右,我認為算是部署失敗。對於產生收入的組件,比如廣告投放組件來說,需要更加小心一點,而發生的頻率是以周計算的。
這屬於矽谷和 Web 軟體開發者早已習以為常的節奏。這種節奏有效是因為新部署代碼的邊際成本非常非常接近於0。
但硬體的邊際成本就很高。我們在日常生活就能感受到。我們今天購買的很多汽車都不是自動駕駛的,大多數也都不是軟體使能的,到 2040 年的時候可能還會在道路上出現。這就給我們的車多快變成自動駕駛增加了天然的限制。如果我們今天要建個新家,我們的預計是它應該能頂 100 年左右。我現在住的建築是在 1904 年建造的,在我的鄰居里面還遠算不上最古老的建築。
資本成本讓物理硬體存活很長一段時間,即便有了高科技的出現,即便它還有存在主義使命要履行。
美國空軍的 B-52 轟炸機仍然在服役。該版飛機是在 1961 年引進的,至今已經 56 年。最後一架是在 1963 年建造的,大概也已經有 54 年了。現在這批飛機預計要服役到 2040 年,可能還要更久——有討論要把它們的壽命延長到 100 年。
美國的路基洲際彈道導彈(ICBM)是民兵-III的變種,1970 年引進。數量一共有 450。其發射系統要靠 8 英寸的軟盤驅動器,發射過程中的一些數字通信是通過模擬電話線進行的。
我在世界各地的工廠裡經常看到幾十年的老設備。我甚至見過工廠裡運行 Windows 3.0(1990年推出)的 PC。其思維模式是「如果沒壞就不要修」。那些 PC 和軟體已經可靠地運行同一個軟體執行同樣的任務超過 20 年了。
歐美中日韓的工廠,包括全新的工廠,其主要的控制機制都是基於可編程邏輯控制器(PLC)的。這是在 1968 年引入來取代繼電器的。「線圈」仍然是目前使用的主要抽象單元,PLC 的編程方式也像是存在一個 24V 繼電器網絡一樣。儘管如此,一些直連線已經被以太網電纜取代。它們模擬的是基於 RS485 8 位串行字符協議的更古老網絡,後者攜帶的是模仿 24V DC 電流開關。而以太網電纜並不是開放網絡的一部分,相反,一根根獨立的電纜都是點對點連接的,體現的是這些嶄新的古老知道控制器的控制流。
當你想要改變訊息流或者控制流時,全球大多數工廠都需要找來顧問用數週的時間弄清楚上面有什麼,設計新的重新配置,然後一群商人隊伍再進行重新佈線,對硬體進行重新配置。這種設備的一家主要製造商最近告訴我說他們的節奏是每 20 年更新3次軟體。
很多的 AI 研究人員和權威想像這個世界已經是數字化了,只需要把新的 AI 系統引進來就能馬上給現場、供應鏈、車間、產品設計帶來運營方面的改變。
這跟事實完全是南轅北轍。
自動化重新配置的阻抗實在是驚人的、令人錯愕的不靈活。
這一領域你很難給出一個好點子。改變實在是太慢了。製造回形針的 AI 系統決定動用一切資源以其他人類需求為代價生產出越來越多的回形針的例子其實只是個怪異的白日夢。未來幾十年內在這個循環裡面都會有關心佈線問題的人的參與。
幾乎所有機器人和 AI 方面的創新都需要很長很長的時間才能廣泛部署,所需時間之長要超出圈子內外的人的想像。無人車就是個例子。突然之間每個人都認識了這個東西,以為很快就會部署。但這所需的時間比想像得要長得多。它需要幾十年,而不是幾年。如果你認為這種想法有點悲觀的話你應該意識到自從第一輛無人車路演至今已經 30 年過去但還是沒有部署。
1987 年 Ernst Dickmanns 和他的團隊在慕尼黑聯邦國防軍大學已經能讓他們的無人車以 90 公里的時速在高速路上行駛了20公里。1995 年 7月,由 Chuck Thorpe 和 Takeo Kanade 領銜的 CMU 團隊研發的第一輛不用手握方向盤腳踩踏板的廂式旅行車實現了橫穿美國東西海岸的壯舉。Google/Waymo 做無人車已經有8年了,但是大規模部署仍然遙遙無期。從 1987 年算起,可能需要 40、50 或者60年我們才能有無人車的真正部署。
機器人和 AI 的新想法也需要很長很長的時間才能變成現實、部署起來。
結語
當你看到權威對將來的機器人和人工智能奇蹟或者恐怖提出警告時,我建議你仔細對他們的觀點進行評估,看看有沒有陷入這 7 個陷阱。根據我的經驗,從他們的論點裡面你總能找到 2、3 或者 4 個這樣的漏洞。
預測未來真的很難,尤其是提前預測更是難上加難。
原文連結:http://rodneybrooks.com/the-seven-deadly-sins-of-predicting-the-future-of-ai/
(本文經合作夥伴 36氪 授權轉載,並同意 TechOrange 編寫導讀與修訂標題,原文標題為 〈 年度最理性AI 分析文章:預測AI 未來,大部分人陷入了7 大誤區 〉。)
延伸閱讀
9 部預測人工智慧的電影:《駭客任務》、《雲端情人》等你看過幾部?
史上最帥人工智慧科學家!他不只是 AI 專家、模特兒,還是個創業家
《MIT 人工智慧產業應用調查》:80% 的產業業者都知道 AI 重要,卻因為高層腦袋水泥轉型不成
【遊戲工程師要失業了?】人工智慧只「看」2 分鐘超級瑪莉歐,就能完美複製它
終結阿茲海默症!人工智慧提早 10 年「認出」失智症患者,準確率高達 84%