一分鐘看懂 Facebook、Nvidia 的這場「AI 聯姻」

【為什麼我們要選這篇文章】放眼市場,目前科技業各巨頭間的關係越來越複雜。有人表面裝作和平,更有人相愛相殺 ── 當然,也有人不怕撕破臉的直接戰鬥了起來。

今天我們不談商戰,來跟大家說一個淒美的愛情故事:有種愛情,叫做 Facebook 跟 NVIDIA。至始以來,他們都保持著一種互利上的關係,在 AI 領域有共同目標的他們,漸漸地走在了一起。

早在 2015 年年底,Facebook 就在其開源的 AI 計算平臺 Big Sur 中安裝了英偉達的 Tesla M40 GPU。在這 AI 當紅的時代,他們倆的關係更是走向了前所未有的新局面。(責任編輯:方綺)

 

縱觀整個科技行業,巨頭之間的關係歷來複雜難耐。有直接舞槍弄棒的,也有曖昧不清的,當然更多的還是相互扶持走向「康莊大道」的。Facebook 和英偉達就是這樣一種互利向上的關係,因為在人工智慧領域擁有共同的目標,然後就走在了一起。

在 AI 成為全球熱點的大環境下,各大巨頭之間紛紛佈局,以期在未來能奪得一席之地,而 Facebook 和英偉達也早已不復當年的“單純”。

不復「單純」的 Facebook、英偉達

先來看 Facebook。這幾年,Facebook 在人工智慧的動作頻頻,不僅為其 Messenger 推出了聊天機器人,發佈了 Camera Effects、AR Studio 等 AR 平臺,而且在 VR 社交上也一直有自己的想法:早年演示了 VR 社交應用,在今年的 F8 大會上則推出了 Facebook Spaces 虛擬實境社交平臺。

此外,已有 13 年創立歷史的 Facebook,從其最新一季的財報數據來看,月活用戶已達 19.4 億,新發佈的 Live 功能也讓流量急速躥升,這些海量的資料都需要更多的高性能伺服器來支撐。

再來看英偉達。擁有 20 餘年成長歷史的它,早已從一個小小的電腦顯卡廠商,發展成如今支撐 AI 領域快速發展的重要基石。在 AI 世界裡,英偉達擁有的 GPU 技術一直佔據中心地位。

這幾年,英偉達不僅為 Microsoft  Cognitive Toolkit 搭建新的 AI 框架,提供自研 DGX-1 AI 超算服務,而且也一直專注在深度學習的演算法研究上。英偉達還投資了大大小小涵蓋 AI、虛擬實境、生命科學等 25 家初創企業,如日本的 Abeja、美國 Datalogue、Optimus Ride、TempoQuest,為他們提供技術、行銷等支持。除了一般的 AI 領域,英偉達還和眾多的汽車廠商如奧迪、寶馬、博世攜手合作,想借其 GPU 驅動無人駕駛汽車上路。按照英偉達 CEO 黃仁勳的話來說,這家晶片製造商現在正成為一家「AI 計算公司」。

所以,在這些背景和前提下,Facebook 可借助英偉達的 GPU 技術,很好地處理由大量使用者激增而產生的資料壓力。

Facebook和英偉達都有哪些合作?

早在 2015 年年底,Facebook 就在其開源的 AI 計算平臺 Big Sur 中安裝了英偉達的 Tesla M40 GPU。Big Sur 是第一款針對機器學習、人工智慧研究開發的開放原始程式碼計算系統,主要用於訓練神經網路,搭載 Tesla M40 之後,該平臺的速度較前代產品提升 2 倍。據雷鋒網 (公眾號:雷鋒網) 瞭解,Facebook 是第一家採用英偉達 Tesla M40 GPU 的廠商。

隨著 Facebook 的“Live”直播熱度攀升,Facebook 用戶對直播的需求也日益增大。為此在今年的 CES 展會上英偉達推出了最新版的 Geforce Experience 顯卡驅動,允許用戶在 Facebook 上 360°直播分享他們所玩的遊戲,還能使用 Nvidia 的‘Ansel’軟體共用與拍攝 360°的螢幕截圖分享至 Facebook 和其他社交平臺。

今年 3 月,Facebook 宣佈,其下代 GPU 伺服器 Big Basin 將使用英偉達的 GPU 技術,為此,英偉達為伺服器提供了 8 台 Tesla P100 加速器,以及高速 NVLink 技術(該技術可消除任何與連接相關的瓶頸,從而實現 GPU 之間的超速通信)。據一項資料表明,搭載英偉達 Tesla P100 和 NVLink 技術的 Big Basin 訓練的機器學習模型,與上代伺服器 Big Sur 相比,規模大 30%,寬頻記憶體上升 33%左右。事實證明,在某些情況下,Big Basin 可以比 Big Sur 快上一倍,它以更快的速度處理 Facebook 海量的文字、照片和視頻需求。

此外,在今年 F8 大會前夕,Facebook 與英偉達就開源社區也進行了合作,二者將利用 Facebook 的深度學習框架 Caffe2 共推人工智慧的發展。Caffe2 是一種可擴展和可擕式快速深度學習框架,搭載了 8 台 Big Basin 伺服器,也就是說,這裡邊配置了 64 台英偉達 Tesla P100 加速器,從而可以提供具備 57 倍輸送量的近線性深度學習訓練。同時,Caffe2 還使用了英偉達的 DGX-1 來做支援,使用者訓練 AI 模型的速度可提升 7 倍。

現在及未來:「天作之合的姻緣」

雖然 Facebook 的月活用戶已接近 20 億,但據研究公司 eMarketer 預測,該公司的新興市場用戶群還會以驚人的速度增長。到 2020 年之前,印度,印尼,墨西哥和菲律賓等國家,由於智慧手機滲透率的直線增長,將會成為 Facebook 用戶增長最快的市場。因此,Facebook 將需要更多的伺服器來應對不斷增長的資料量。

對於英偉達的專業視覺化業務(該業務包含 Tesla 系列 GPU)而言,這無疑是一大利好消息。因為英偉達 Tesla 系列 GPU 可用於加速高性能計算和承載超大型資料中心的工作負荷,從而可以遏制大量激增的資料壓力。

據市場預測,到 2022 年之前,AI 晶片的市場規模每年將增加 60%以上,達到 160 億美元。而 GPU 處理器正好可解決該市場的很大一部分需求。所以,英偉達對未來人工智慧市場的意義不言而喻。

目前來看,英偉達的 Tesla GPU 也已經被多家雲端服務商如 Amazon Web Services,Google Cloud 和 Microsoft Azure 等使用,隨著 AI 投注的增加,未來雲計算+人工智慧將是一個不可估量的市場。所以這樣來看,Facebook 和英偉達的合作不管是現在還是未來,都是一場「天作之合的姻緣」。

(本文經合作夥伴雷鋒網授權轉載,並同意 TechOrange 編寫導讀與修訂標題,原文標題為 〈一分钟看懂 Facebook、Nvidia 的这场“AI 联姻”〉。)

延伸閱讀:

大人工智慧時代,Facebook、Netflix、Amazon 到底都如何使用 AI?
特斯拉自駕車負責人跳槽 NVIDIA,下一代自動駕駛系統不知道要等多久
【NVIDIA 的逆襲】NVIDIA 靠繪圖晶片成為人工智慧主要引擎,打敗英特爾的日子不遠了?


多雲平台管理不易,找出資安威脅難上加難

IBM 解惑如何善用「開源技術」自動因應網路攻擊

獲取 IBM 獨家白皮書

點關鍵字看更多相關文章: