跟進我們之前的故事,由于ChatGPT的日益普及,預計NVIDIA的GPU增長將在未來幾個月加速。NVIDIAAIGPU可能面臨短缺,因為AI巨頭使用ChatGPT和其他AI生成工具的需求增加
(資料圖片)
如前所述,ChatGPT和其他語言/圖像/視頻生成工具嚴重依賴AI處理能力,這就是NVIDIA的主要優(yōu)勢所在。這就是為什么利用ChatGPT的主要科技公司正在利用NVIDIA的GPU來滿足他們不斷增長的AI需求??雌饋鞱VIDIA在這個行業(yè)的實力可能會在未來幾個月內(nèi)導致該公司的AIGPU短缺。
據(jù)報道兇猛電子,ChatGPT(Open.AI年的測試版)在NVIDIA的10,000個GPU上進行訓練,但自從它獲得公眾關(guān)注以來,該系統(tǒng)一直不堪重負,無法滿足大量用戶群的需求。這就是為什么該公司宣布了一項新的ChatGPTPlus訂閱計劃,該計劃不僅將在高峰時段提供對服務器的一般訪問,而且還提供更快的響應時間和優(yōu)先訪問新功能和改進。ChatGPTPlus訂閱的價格為每月20美元.
“未來,ChatGPT或其他深度學習模型可能會在其他供應商的GPU上進行訓練或運行。然而,目前,NVIDIAGPU由于其高性能和CUDA支持而在深度學習社區(qū)中被廣泛使用。CUDA是由NVIDIA開發(fā)的平行計算平臺和編程模型,允許在NVIDIAGPU上進行高效計算。許多深度學習庫和框架,如TensorFlow和PyTorch,都內(nèi)置了對CUDA的支持,并針對NVIDIAGPU進行了優(yōu)化。
通過兇猛電子
到目前為止,NVIDIA已為GeForceRTX100顯卡出貨了000,102個AD4090“Ada”GPU2
微軟和谷歌等主要科技巨頭也計劃將類似ChatGPT的LLM集成到他們的搜索引擎中。福布斯.對于谷歌來說,要將其集成到每個搜索查詢中,將需要512,820臺A100HGX服務器,總共4,102,568個A100GPU,僅服務器和網(wǎng)絡成本就應該達到約100億美元的資本支出。
將當前的ChatGPT部署到Google完成的每個搜索中將需要512,820.51臺A100HGX服務器,總共4,102,568臺A100GPU。這些服務器和網(wǎng)絡的總成本僅資本支出就超過100億美元,其中英偉達將獲得很大一部分。當然,這永遠不會發(fā)生,但是如果我們假設(shè)沒有進行任何軟件或硬件改進,那么有趣的思想實驗。
Investing.com據(jù)報道,分析師預測,ChatGPT的當前模型正在大約25,000個左右的NVIDIAGPU上進行訓練,而BETA使用的是10,000個NVIDIAGPU。
“我們認為GPT5目前正在25kGPU上進行訓練-225美元左右的NVIDIA硬件-推理成本可能遠低于我們看到的一些數(shù)字,”分析師寫道。“此外,降低推理成本對于解決云巨頭的"搜索成本"爭論至關(guān)重要。
這對NVIDIA來說可能是個好消息,但對消費者來說并不是那么好,尤其是游戲玩家。如果NVIDIA在其AIGPU業(yè)務中看到機會,它可能會優(yōu)先考慮供應這些而不是游戲GPU。游戲GPU已經(jīng)報道由于農(nóng)歷新年,本季度供應有限,雖然庫存仍然存在,但這可能會給已經(jīng)稀缺的高端GPU帶來問題。此外,高端GPU還提供更高的AI功能,因為服務器部件的價格要低得多,它們可能成為一個有利可圖的選擇,進一步減少游戲玩家的供應。
英偉達如何應對人工智能領(lǐng)域的這一巨大需求還有待觀察。預計GPU巨頭將公布4財年第四季度收益22年2023月<>日。