訂閱
糾錯
加入自媒體

全球AI大爆發(fā),GPU芯片廠商Nvidia贏麻了,3個月漲2萬億

最近一周,AI領(lǐng)域真的是瘋狂。

GPT-4、Microsoft 365 Copilot、Midjourney V5、Google PaLM API、百度文心一言等等,這些AI產(chǎn)品像一顆顆的炸彈,扎堆在這周引爆。

而近日,還有機構(gòu)預測稱,這種AI的推出,未來或影響全美國80%的工作崗位,那么放大到全球來看,會影響多少?

而在這場AI大亂斗之下,誰是最后贏家可能還無法預測,但目前,已經(jīng)有一個大贏家誕生了,那就是GPU芯片廠商Nvidia。

AI的背后其實是算力,特別是GPU芯片,之前OpenAI已公布過具體的信息,在訓練上一代的GPT-3時,使用了數(shù)千個NVIDIA V100 GPU。

而調(diào)研機構(gòu)TrendForce的數(shù)據(jù),顯示GPT-3訓練時大概用到了20000個NVIDIA A100 GPU左右的算力,而ChatGPT商業(yè)化后所需的GPU數(shù)量將達到30000個以上。

之后隨著模型的不斷升級,需要用到的GPU芯片會越來越多,呈倍數(shù)增長,那么Nvidia的GPU顯卡會越賣越多。

不只是OpenAI,像谷歌、微軟等等推出的AI產(chǎn)品,均需要GPU芯片啊,這是一筆多大的生意?

而為了更好的服務(wù)于AI,Nvidia發(fā)布了全新的GPU推理平臺,該平臺包括4種不同配置,L4 Tensor Core GPU、L40 GPU、H100 NVL GPU和Grace Hopper超級芯片。分別對應了AI視頻加速、圖像生成加速、大型語言模型(LLM)加速和推薦系統(tǒng)和LLM數(shù)據(jù)庫。

拿專門為LLM設(shè)計的GPU--H100 NVL來說,Nvidia表示相比于英偉達HGX A100,一臺搭載四對H100和雙NVLINK的標準服務(wù)器速度能快10倍。

而L4 Tensor Core GPU,是AI生成視頻的通用GPU,Nvidia表示,使用它可以提供比CPU高120倍的性能……

事實上,反映在資本市場,Nvidia也確實贏麻了,2023年以來,還不到3個月,nvidia的股價已經(jīng)漲了80%左右,市值漲了近3000億美元,相當于2萬億元人民幣。

不管最后是誰家的AI勝出,誰家的AI倒下,與Nvidia都關(guān)系不大,反正Nvidia的GPU顯卡,已經(jīng)立于不敗之地,出貨量已經(jīng)節(jié)節(jié)攀升了。

       原文標題 : 全球AI大爆發(fā),GPU芯片廠商Nvidia贏麻了,3個月漲2萬億

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號