Search
Close this search box.

【黃仁勳準備當飆仔!】NVIDIA 改變政策每年都推新晶片,AI 需求太強「超速」才能賺更多

隨著 NVIDIA 第一季財報表現亮眼,不僅單季利潤達到 140 億美元,銷售額更猛增 262%,而該公司 CEO 黃仁勳顯然也有更加激進的想法,準備將公司推出新晶片的腳步,從原先的「兩年一次」加速到「一年一次」,讓 NVIDIA 年年都有新產品面市,消化外界強烈的 AI 運算需求。

黃仁勳在財報會議上指出,就在今年稍晚上線 Blackwell 新架構 GPU 晶片之後,NVIDIA 將很快帶來下一款產品,而公司內部設計、推出新晶片的節奏也正式轉為一年一款。

到目前為止 NVIDIA 大約都是每兩年推出一款擁有全新架構的 GPU,比方說 2020 年時該公司就帶來了 Ampere 系列產品,接著於 2022 年推出 Hopper,然後是今年即將登場的 Blackwell。若對應到實際的產品上,當前 AI 運算業界主流的 H100 晶片採用了 Hopper 架構,至於更先進的 B200 晶片則會使用 Blackwell 架構。

掌握 AI 趨勢 & 活動資訊一點都不難!訂閱電子報,每週四一起《AI TOgether》

感謝訂閱!隨時注意信箱的最新資訊

早前知名分析師郭明錤曾經爆料,Blackwell 架構後繼者「Rubin」將於 2025 年推出,NVIDIA 最快明年就會為外界提供「R100」系列 AI GPU,而黃仁勳現在的說法似乎也間接印證了郭明錤的爆料。

黃仁勳表示,受惠於外界對 AI 運算設備的強烈需求,NVIDIA 將加快公司內「所有晶片」的生產速度,包含 CPU、GPU、網路卡、交換器等等,不只是加快新 GPU 晶片的設計時程,而是透過全面性的方式鞏固 NVIDIA 龍頭地位,帶領業界以更快的速度前進。

財報會議上分析師詢問黃仁勳,如何在現有的 Hopper GPU 仍然熱銷時,讓 Blackwell 產品受到企業青睞?黃仁勳回答,客戶從 H100 產品過渡到 H200,再從 H200 過渡到 B100 其實會非常輕鬆,因為新一代的 AI GPU 晶片完全跟以前的產品相容,甚至能夠無礙運行同樣的軟體,這會大幅提高企業的採購意願。

黃仁勳說,現在每家企業都希望讓自己的 AI 基礎設施盡快上線,原因是 AI 正在幫他們省錢、賺錢,進而造就了外界對 AI 運算設備,也就是先進 GPU 的強烈需求。舉例來說特斯拉日前就購買了 35000 個 H100 GPU,用以訓練旗下的全自動駕駛系統,Meta 也預計為其資料中心下單超過 350000 個 H100 GPU,並且規劃於今年內正式上線。

【延伸閱讀】

◆ 【分析師爆料大的要來了】NVIDIA 下一代晶片 2025 登場,代號 Rubin 專為 AI 運算打造

◆ 年薪 100 萬美元也稱不上「富有」!NVIDIA 工程師:不要以為我們都很有錢

◆ 黃仁勳幾乎每天用的 2 個 AI 工具──盤點 7 個科技名人怎麼用 AI

*本文開放合作夥伴轉載,資料來源:《The Verge》《NVIDIA》。首圖來源:NVIDIA

透過 Amazon Bedrock,發掘 Claude 3 系列模型的無窮潛能

【立即試用 Claude 3 系列模型,24 小時內免費體驗!】