Search
Close this search box.

Intel 哭暈在工廠,大客戶 Google 以後要自己開發神經網路晶片了

Screen Shot 2016-05-19 at 4.59.42 PM

Google 設計了用於驅動深層神經網路的計算機晶片,深層神經網路的人工智能技術重新發明了互聯網服務運營方式。

美國時間 18 號上午,在 Google I/O 2016,CEO 桑德爾·皮蔡(Sundar Pichai)表示,Google 設計了一個 ASIC(Application Specific Integrated Circuits:專用集成電路),專門針對深層神經網路。這些硬體和軟體的網路,可以通過分析大量的數據學習特定任務。Google 使用神經網路來識別照片裡的物體和麵孔、理解你對 Android 手機說出的命令、或者翻譯語言文本。該技術甚至開始改變 Google 的搜索引擎。

Google 將其晶片稱為張量處理單元(Tensor Processing Unit:簡稱 TPU),因為它支撐著 TensorFlow(研發的第二代人工智能學習系統),軟體引擎驅動其深度學習服務。

去年秋天,Google 發布了 TensorFlow 的開放源代碼許可證,這意味著公司之外的任何人都可以使用,甚至修改這個軟體引擎。Google 不會共享其設計的 TPU,但外人可以通過不同的 Google 云服務利用其機器學習硬體和軟體。

Google 只是將深度學習加入到廣泛的互聯網服務的眾多公司之一,還有Facebook、微軟和 Twitter。通常,這些互聯網巨頭推動他們的神經網路與圖形處理單元,或 GPU,如晶片製造商 NVIDIA。但包括微軟在內的一些公司,也正在探索現場可編程門陣列(field programmable gate arrays:簡稱 FPGA),可以編程為特定任務的晶片。據 Google 所說,驅動在線服務的數據中心內部的海量硬體機架,TPU 板就像硬碟驅動器一樣安裝到相同的插槽,對比其他的硬體,它提供了「一系列每瓦數量級更好的優化性能的機器學習」解決方案。「TPU 是專為機器學習應用而設,讓晶片更加兼容的減少計算精度,這意味著每個操作它需要的晶體管更少。」Google 在博客文章中發布。「正 因為如此,我們可以把每秒的操作更多地集成矽,使用更複雜和強大的機器學習模型,更快速地應用這些模型,讓用戶更為迅速獲得更智能的結果。」

這意味著,除其他事項外,Google 使用晶片的方式不像 Nvidia,也不像其他公司使用更少的晶片。同時我們還可以看出,Google 希望打造自己的晶片,對晶片製造商來說是個壞消息,特別是世界上最大的:英特爾。英特爾處理器驅動著 Google 內部龐大的計算機服務器,而英特爾的煩惱在於,Google 有一天會設計自己的中央處理器。

(本文獲雷鋒網授權刊載,原標:谷歌為其 AI 機器人設計芯片,英特爾慌了,未經授權請勿轉載)