Deepmind 最新論文:神經網絡技術模擬「人腦海馬體」,AI 預測能力準度更高、成本更低了!

【我們為什麼挑選這篇文章】Deepmind 日前發表了最新論文,利用對於大腦「海馬體」的研究找到神經網絡發展突破點。簡單來說,以往的方式是建立昂貴的「未來模擬」,而現在 Deepmind 學習人類海馬體的運作方式,嘗試建立「預測地圖」,列出未來各種可能性,再用加權的方式幫助 AI 快速適應環境變化。就像是如果你想到下班,可能要接小孩、也可能是直接回家,那「塞車狀況」、「時間」或「路線」預測也會不同,這些預測就是加權的特點。

這一發現能夠幫助人工智慧更準確的預知未來可能情況的發生,以便快速適應環境變化,是非常大的突破。這篇文章詳細解釋了「預測地圖」的設計原理和運作方式!(責任編輯:劉庭瑋)

對人類神經網絡的理解越來越在左右人工智慧的未來研究,連 Deepmind 也不例外。

2017 年 10 月 2 日,《NATURE NEUROSCIENCE》發表了 Deepmind 的一篇《The hippocampus as a predictive map》的論文。這篇論文中,Deepmind 通過對主管人類長期記憶行為的「海馬體」(hippocampus)神經元活動的研究,進一步提出了可以轉化為神經網絡架構的「預測圖」理論。

在部落格中,Deepmind 這樣寫到:

「傳統觀點認為海馬體只表示動物的現狀,尤其在執行走迷宮之類的空間任務中。這種觀點在發現囓齒動物的海馬體中的『位置細胞』後被廣泛傳播,當動物處於特定位置時,它們會選擇性地放電。雖然這個理論解釋了許多神經生理學發現,但並不完全解釋為什麼海馬體也參與其他功能,包括記憶,關係推理和決策等。

我們認為,海馬體用它們預測到的未來狀態來展示代表每一種情況。例如,如果你要下班回家(你當前的狀態),你的海馬體可能會預測你很可能很快會通勤回家,到學校接孩子,或者更長遠一點——到家了。海馬體預測這些後期狀態來表現出當前的狀態,從而傳達了對未來事件的摘要表達,也就是我們正式說的『後續表徵』
(Sucessor Representation)。我們認為,這種具體形式的預測圖可以讓大腦在獎勵不斷變化的環境中快速適應,而無需運行代價昂貴的未來模擬。

這一理論啟發我們在新算法中結合了基於模型的算法的靈活性和無模型算法中的高效性,由於計算只是簡單的加權相加,因此該算法的計算效率與無模型算法相當,同時,通過分離獎勵期望與期望狀態(預測地圖),該算法可以通過簡單的更新獎勵期望值並保持狀態期望值不變,從而快速適應獎勵變化。

(老鼠在探索方形房間時記錄下來的海馬體每個位置細胞的活動及放電率的變化)

這並不是 Deepmind 的第一篇神經科學用於人工智慧的論文,在此之前 Deepmind 就表過至少兩篇創始人 Hassabis 為作者的神經科學論文,這篇文章作者中雖然不包括Hassabis,但相對於前兩篇論文更加具體,對未來的研究也更具有指導意義。

神經網絡發展史

人工智能的發展與神經系統有著千絲萬縷的聯繫。在 1943 年,Warren McCulloch 和Walter Pitts的《 神經活動內在想法的邏輯演算》第一次提出瞭如何讓人造神經元網絡實現邏輯功能,這也奠定了神經網絡最早的數學基礎和開啟了人們模擬人腦神經系統開發人工智能(雖然當時還沒有這個詞)的早期嘗試。

模仿人類神經系統的問題是:人類大腦神經系統實在太複雜了在人類大腦神經系統中包含10^11(10的11次方)的神經元,即便現在也難以模擬。在 1958 年,Frank Rosenblatt 通過解剖大鼠的大腦發布了一個模仿神經元的感知機,當時有研究者認為,只要神經元足夠多、網絡連接足夠複雜,感知機就至少可以模擬部分人類智力,但在 1969 年,Marvin Minsky 和 Seymour Papert 證明了感知機只能解決線性問題,還揭露了關於多層感知器的缺陷,這使得人工神經網絡研究在人工智慧領域很快就陷入了低谷,被基於規則和邏輯推理的專家系統所取代。

1974年,一位叫 Geffory Hinton 的年輕研究者發現,把多個感知機連接成一個分層的網絡,即可以解決 Minsky 的問題。這帶動了80年代連接主義的興起,這個階段的連接理論最初被稱為分佈式並行處理PDP (parallel distributed processing),他們以人工神經網絡為工具方法,引領著神經科學和人工智慧領域的發展,與行為學派和符號學派三足鼎立。

隨之而來的問題是,如果要模擬人類大腦數量如此龐大的神經元,可能需要對幾百甚至上千個參數進行調節,如何對這樣複雜的網絡進行訓練呢?Hinton等人的發現是,過反向傳播算法可以解決多層網絡的訓練問題這一算法是用來訓練人工神經網絡的常見方法,該方法計算對網絡中所有權重計算損失函數的梯度。這個梯度會反饋給最優化方法,用來更新權值以最小化損失函數。

神經網絡的現代分類器的各個方面也受到了我們所了解的大腦的視覺系統的啟發這方面研究的先驅包括 Geoffrey Hinton、Yann LeCun、Yoshua Bengio 等人,1998年,Yann LeCun 提出了卷積神經網絡(CNN),2006年,Hinton 提出了深度學習的概念並在其經典論文《A fast learning alforithm for deep belief nets》中提出了深度信念網絡,帶來了深度學習直到今天的黃金時代;2009年,Yoshua Bengio 提出了深度學習的常用模型堆疊自動編碼器(Stacked Auto-Encoder,SAE),基於神經網絡的研究得到進一步發揚光大。

然而人工智慧專家基於神經系統的研究和思考並沒有停止。如腦科學的研究結果表明,大腦中神經元的信號處理機制和連接學習方式是不同的,尤其是大腦的無意識感知和自我意識功能並不需要有監督的學習,在大腦神經系統中,非監督學習和自主學習同樣佔有重要的地位,相應地,對於無監督學習和遷移學習的研究也成為人工智慧的熱點之一。

而隨著深度學習和神經科學的發展,之前對深度學習的一些基礎理論也在面臨著更新。例如在深度學習領域,神經元是最底層的單元;而在神經科學領域,神經元並不是最底層的單位。目前的深度神經網絡主要是三種結構,即 DNN(全連接的)、CNN(卷積)和RNN(循環),而目前的研究表明,人類神經網絡可能比較類似上述三種結構的組合,層內更像 DNN, 層間和 CNN 很類似,在時間上展開就是 RNN。這種結構上的差異也導致了深度學習研究的複雜性。

來源: Neocortical layer 6, a review & 知乎

深度學習正在面臨一個拐點——一方面,基於我們最初基於人腦結構認識的理論研究已經到了一個平台期,而另一方面,如 Hinton 等最尖端的深度學習專家也在藉助神經科學的最新發現,對之前對提出的理論進行反思,這也是近日Hinton 就提出「深度學習需要推倒重來」,並表示可能要徹底放棄反向傳播的由來(參考 TO 文章:神經網絡之父 Geoff Hinton 推翻畢生心血「反向傳播演算法」:打掉重來,AI 才有未來!)。

在與 OReilly 的一次訪談中,Hinton 曾經承認我們對人類神經系統的了解並不足夠。「我們真不知道為什麼神經元要發脈衝。一個理論是它們想要噪聲,以便正則化,因為我們的參數超過數據量。」Hinton 在訪談中說道。「這個理論已經出現有50多年了,但沒人知道它是否正確。」

神經科學和對人腦的模仿在人工智能中曾經起著重要的作用,而對於模仿人類大腦,是否能製造出最強大的人工智慧,在不同人工智慧學家眼裡可能會有不同的答案。一個時常被提起的例子是,我們之所以能造出飛機,是因為空氣動力學的發展而並非模仿鳥類飛行的動作,但雷鋒網認為,這種從仿生到理論的循環可能是一種螺旋式的上升過程新的神經系統發現和研究可能會推翻之前的人工智慧經典理論,並隨之模擬出新的人工智慧網絡和產生新的理論,從而推動人工智慧的研究突破瓶頸得到進一步發展。

(本文經合作夥伴 雷鋒網  授權轉載,並同意 TechOrange 編寫導讀與修訂標題,原文標題為 〈 Deepmind “預測地圖”論文背後:神經科學或將助力深度學習迎來新突破〉。)

延伸閱讀

神經網絡之父 Geoff Hinton 推翻畢生心血「反向傳播演算法」:打掉重來,AI 才有未來!
Google 無人車之父親自開班!Udacity 最新自動駕駛入門學位,零基礎也可上手
【深度學習框架 Theano 慘遭淘汰】微軟數據分析師:為何曾經熱門的 Theano 18 個月就陣亡?
一次看懂 AI 晶片發展史:從 Intel CPU 的興衰,到微軟 FPGA、Google TPU 的崛起
想成為一名戰鬥力超強數據分析師?讓公司程式白痴聽懂程式碼在幹嘛,保證你立刻成為最強人才