【TechOrange 編輯部導讀】
NVIDIA 在今年的 GTC 大會上宣布與多家雲端廠商展開合作,同時,也宣布進軍 AI 雲市場。早在 GTC 大會前,就已有市場猜測,NVIDIA 的此種新商業模式,很可能和其他科技巨頭產生利益衝突,其中不乏許多 NVIDIA 的大客戶。但,NVIDIA 為何不怕?
下文,將從 NVIDIA 在雲端策略上的「兩支箭」,以及三大雲端巨頭的業務發展現況來其中原因剖析。
文:YY Liu、藍立晴 共同編寫
過去 10 年在眾家科技新品發表會中,「繼 iPhone 之後的劃時代發明」這類宣傳口號早已是觀者聽了無感的台詞,但這次 NVIDIA 在 GTC 大會高喊「 AI 的 iPhone 時刻已到來」,卻讓整個華爾街譁然,因為對於 AI 來說,這次是真真正正的 iPhone 時刻。
NVIDIA 這間在過去強調低耗能的行動裝置時代,被視為沒吃到手機市場紅利的輸家,如今卻靠著死守 GPU 的研發設計命脈,從谷底竄上 AI 時代這一需要高算力的浪頭。
NVIDIA 生成式 AI 業務的兩大乾爹:Google、微軟
自 ChatGPT 使用人次破億,成為史上用戶飆升數最快的應用程式,外界更加肯定未來生成式 AI 將重塑所有產業,就如同過去 PC、網路、行動裝置甫問世之際。然而,新技術需要數據中心強大的算力,NVIDIA 創辦人黃仁勳在大會上表示,就像現在幾乎每款消費性電子產品都需要內建高階晶片,未來 AI 也會需要像是台積電般的代工廠角色,替每間 AI 工廠,也就是數據中心服務。
據《華爾街日報》報導,目前 NVIDIA 在生成式 AI 方面的業務,幾乎完全倚賴微軟、Google 兩大科技巨頭的資本支出。而這其中指的資本支出,當然也包含數據中心裡,用來運行 AI 的超級電腦所需的晶片。
據瑞銀集團(UBS)在 3 月中發佈的預測報告顯示,未來一兩年內,生成式 AI 將對各式 GPU 晶片增加 100 ~150 億美元的市場需求。分析師目前預計 NVIDIA 的年營收將在三年內超越 460 億美元,也就是 20% 的年增率,對於這等規模的科技大廠來說,這樣的跳躍可說是前所未見。
但想實現這般前景,NVIDIA 得在客戶端進行更靈活敏捷的策略佈局,才能將 AI 浪潮背後所需的算力一網打盡。這也難怪在今年 GTC 大會上,除了新亮相的晶片外,與雲端服務商巨頭的戰略合作成為主要看點。
NVIDIA 第一支箭:DGX 超級電腦上雲!H100 將成全球 AI 運算最不可或缺的 GPU
如何解讀 NVIDIA 與雲端服務商的策略合作?DGX Cloud 是 NVIDIA 挺進雲商機的第一支箭。
黃仁勳在 GTC 發佈的重磅消息之一,便是宣布要將 ChatGPT 「同款」的超級電腦NVIDIA DGX 上雲,並開放給企業戶的訂閱服務 DGX Cloud。黃仁勳指出,「每間公司只要簡單透過網路瀏覽器就能使用 NVIDIA DGX AI 超級電腦」。所有欲打造新產品、制定 AI 戰略的新創、中小企業只要月付 3 萬 7 千美元,就可獲取 DGX 的威能算力。
NVIDIA DGX 超級電腦最早用於 AI 研究,如今財富 100 強(Fortune 100)排行榜中有半數的企業都裝有該超級電腦。 NVIDIA 指出,目前最新版的 DGX 搭載 8 個 NVIDIA H100 GPU,這 8 個 GPU 連在一起能變成一個巨大的 GPU 來處理各項工作。
NVIDIA 表示未來將與各大雲端服務商合作託管 DGX Cloud,目前由 Oracle Cloud Infrastructure 搶得頭香實施,微軟 Azure 則預計將在下一季開始託管 DGX Cloud,Google Cloud 等其他業者將隨後跟上。
當然 NVIDIA 可沒漏掉了北美雲端服務市佔最大咖的 AWS。AWS 日前宣布即將推出的新一代 Amazon Elastic Compute Cloud (Amazon EC2) P5 實例,將採用最新 NVIDIA H100 Tensor Core GPU。
AWS 在官方聲明指出,時至今日許多公司對於訓練機器學習模型的工作負載,已超過 1 萬個互聯 GPU 的規模,因此未來客戶將能把 Amazon EC2 P5 實例的規模拓展至 2 萬的互聯的 H100 GPU,以得到強大的 AI 算力。
NVIDIA 第二支箭:與微軟、Google 宣布不同獨家合作,切分甜頭討好兩大客戶
除了 H100 衍伸的雲端服務商機,第二支箭是 NVIDIA 也在不同品類上的產品、服務,各自分給不同雲端服務商客戶獨家甜頭。
例如 Google Cloud 是率先將專精於人工智慧影片的 NVIDIA L4 提供給客戶的雲端服務提供商,其搭載 L4 GPU 的 G2 虛擬機器,於 3 月底開放非公開專屬預覽活動。據 NVIDIA 資料顯示,NVIDIA L4 製作人工智慧影片的效能較 CPU 多出 120 倍,能源使用效率也提高 99%,特別適合企業執行語言模型、圖像生成與影片合成等生成式 AI 服務。
另一手與老相好微軟的合作,NVIDIA 則宣布將旗下工業元宇宙平台 NVIDIA Omniverse Cloud,交給微軟託管。(儘管微軟近日才裁撤了僅成立 4 個月的工業元宇宙團隊)黃仁勳表示:「微軟與 NVIDIA 將合作讓數億名 Microsoft 365 和 Azure 用戶可以使用到 Omnivese。」
Omnivese 是 NVIDIA 提供客戶進行 3D 設計協作、數位孿生模擬而打造的開放式平台。全球各地的 Azure 開發人員可透過 Omniverse Cloud 平台,以合成資料生成(SDG)、機器人模擬等技術,更省時省錢的部署自動化技術。
NVIDIA 所展示的例子之一是 Amazon 透過在 Omniverse 平台上,預先編排 Amazon 首個全自主倉庫機器人 Proteus 的揀貨動作,完成模擬演練後再部署到現實環境中,如此便能大幅降低錯誤成本與部署時間。
NVIDIA 為何不怕與客戶競爭?原因和「這市場」的成長放緩有關
目前市場對於 NVIDIA 如何選擇與雲端客戶打交道的方法還沒有太多肯定的評論。畢竟,NVIDIA 宣布合作推出的多項雲服務,其實都與客戶有直接競爭關係,因為舉凡微軟、Google 和 AWS 也都有類似的 AI 雲服務。
尤其 NVIDIA 還推出了 AI Foundations,這是一系列針對不同功能的新雲端服務,尤其在生成 AI 領域——包括 NVIDIA NeMo、NVIDIA Picasso 等等,這很有可能導致許多生成式 AI 新創轉向 NVIDIA,而非三大雲端巨頭。
難道 NVIDIA 都不怕搶了大客戶的生意,還宣布各種自家雲端服務和琳瑯滿目的合作?《華爾街日報》提供了一個可能的解釋:雲端運算服務市場正急速放緩,眾家雲端服務商比任何時候都還需要 AI 生成式這場甘霖解渴,因此任何能擴大雲端市場的合作機會都不想錯放。
據《華爾街日報》報導,分析師預計今年 3 大雲服務商的綜合雲收入增長率將比去年下降近一半。雲端巨頭們亟需仰賴這波生成式 AI 大浪,重振雲端業務的士氣。
以 AWS 為例上一個季度的業績增長創下歷史新低,其中,「雲端運算部門」更是 Amazon 裁員的主要目標之一。而微軟也在近期頻頻向投資者示意其雲端業務正在放緩。
與此同時,NVIDIA 的「乾爹們」,也正在設計自己的晶片。美銀證券分析師 Vivek Arya 在接受《CNBC》採訪時也指出,NVIDIA 的客戶也可能成為其競爭對手,像是最大買家 Amazon 和 Google 已經在內部設計自己的晶片,而微軟未來也可能效法。
KPMG 高管 Brad Brown 指出,有越來越多企業客戶正嘗試在傳統雲端服務上節省開銷,但卻增加了 AI 服務上的支出。可見在這片 AI 雲的新藍海之中,誰能祭出優秀的競合策略、誰不怕賭上一切,才能吹到這場推動業績的順風。
資料來源:NVIDIA 官方新聞稿、NVIDIA、Amazon、WSJ1、WSJ2、CNBC、Analytics India Magazine;圖片來源:NVIDIA。
(責任編輯:藍立晴)