訂閱
糾錯
加入自媒體

微軟欲自研AI芯片支持OpenAI,壓力給到英偉達(dá)

4月19日,美國科技媒體 The Information 爆料,ChatGPT背后的大股東微軟正在研發(fā)自己的芯片“雅典娜”(Athena)。

此次微軟公司自研芯片主要應(yīng)用于 ChatGPT 背后的生成式 AI 技術(shù),用途為訓(xùn)練大語言模型(LLM)和 AI 推理(inference)。

微軟早在2019年就已開始著手研發(fā)這款芯片。芯片已經(jīng)提供給了小部分微軟的員工,以及ChatGPT開發(fā)商 OpenAI 的員工,他們正在測試并使用這些芯片。

資本大佬和初創(chuàng)新星的蜜戀

要說AI 圈里的當(dāng)紅炸子雞,定是擁有 ChatGPT 技術(shù)的OpenAI 莫屬,微軟則是OpenAI背后的資本方。

早在兩方展開密切合作之前,雙方都在生存困境中掙扎許久——微軟雖為資方巨擘,但在科技圈仍然相當(dāng)隱忍,在云計(jì)算和人工智能領(lǐng)域總有亞馬遜和谷歌壓制一頭。而OpenAI 最初是一家50人的非盈利性質(zhì)的初創(chuàng)小公司,面臨著所有的AI創(chuàng)企一樣的問題:AI開發(fā)成本翻番、“要理想還是面包”、副總裁帶隊(duì)離職團(tuán)隊(duì)潰不成軍等問題,時任OpenAI首席技術(shù)官的布羅克曼擔(dān)心被谷歌旗下的DeepMind等對手甩在身后......

從當(dāng)前審視這個長達(dá)五年的ChatGPT產(chǎn)品研發(fā)落地的故事,雙方陷入“蜜戀”情理之中,同一個賽道,相同的目標(biāo)和突破訴求,適配的合作者相見恨晚,一拍即合。

2020年7月,微軟向初創(chuàng)公司OpenAI投資10億美元,自此開始了和OpenAI 的“熱戀式合作”。2021年微軟再次投資20億,微軟的Azure OpenAI開始集成用戶可直接通過相關(guān)API進(jìn)行調(diào)用的GPT-3模型,自此GPT技術(shù)開始初步商業(yè)化。2023年1月24日,微軟追加投資100億,與OpenAI再次擴(kuò)大合作關(guān)系。此輪投資后,微軟獲得了 OpenAI 75% 的利潤分紅權(quán)直到收回投資,之后微軟將擁有 OpenAI 49%分紅權(quán)。

微軟和OpenAI之間的關(guān)系逐漸變得更加深入和復(fù)雜,他們的財(cái)務(wù)和技術(shù)命運(yùn)糾纏在一起。他們有共同的目標(biāo)期許和行業(yè)共識,其中一點(diǎn)是明確的:現(xiàn)在還處于早期階段。

OpenAI持續(xù)燒錢,微軟探索自研路徑

一項(xiàng)新技術(shù)航程的初期,借船出海也許能走的更快一些,為了訓(xùn)練ChatGPT,微軟下了足夠多的血本,但時間一久問題便逐漸暴露。目前,讓這對“熱戀期情侶”焦灼的是——外購芯片太過燒錢,并非長久之宜。

在用戶使用ChatGPT時,這一軟件需要識別人類發(fā)出的指令,并模仿人類回答相應(yīng)的問題,這一過程需要處理大量的數(shù)據(jù),對芯片算力的要求極高。

微軟目前使用的 AI 芯片是英偉達(dá)芯片,ChatGPT消耗的總算力約為3640PF-days,假如每秒計(jì)算一千萬億次,需要計(jì)算3640天。微軟將3萬多個英偉達(dá)A100芯片連起來為OpenAI打造超級算力。這項(xiàng)貼心的舉動已耗費(fèi)微軟數(shù)億美元,按照趨勢,日后花費(fèi)只會更甚,還經(jīng)常會被芯片供應(yīng)商掣肘。

此舉不僅為了減少自身對英偉達(dá) GPU 的依賴,還是應(yīng)對同行壓力的必由之舉,隨著生成式AI大爆發(fā),包括亞馬遜和谷歌等科技巨頭都已推出自研AI芯片。

只不過,微軟早在5年前就秘密行動了。自研芯片內(nèi)部代號「雅典娜」(Athena),300人共同研發(fā),并已由微軟內(nèi)部機(jī)器學(xué)習(xí)相關(guān)員工和 OpenAI 開發(fā)者組成的小團(tuán)隊(duì)進(jìn)行測試。

微軟希望 AI 芯片 Athena 的性能優(yōu)于從其他供應(yīng)商處購買的芯片,從而節(jié)省其在昂貴的AI業(yè)務(wù)上的時間和成本。

微軟的 AI 芯片將用于訓(xùn)練大語言模型并支持推理,這些都是生成式 AI 需要的。我們以 ChatGPT 為例,它需要利用 AI 處理大量數(shù)據(jù)、識別模式并創(chuàng)建模仿人類對話的全新輸出。預(yù)計(jì)微軟將在明年之前將「雅典娜」提供給內(nèi)部和OpenAI使用。

英偉達(dá),AI芯片的統(tǒng)治者

全球GPU市場中,基本被Nvidia、Intel和AMD三家壟斷。目前主導(dǎo) AI 芯片的是英偉達(dá)公司,在機(jī)器學(xué)習(xí)領(lǐng)域,NVIDIA GPU市占率高達(dá)95%以上,至今沒有對手可以匹敵。

2019 年,前四大云供應(yīng)商 AWS、谷歌、阿里巴巴和 Azure 中 97.4% 的 AI 加速器實(shí)例(用于提高處理速度的硬件)部署了英偉達(dá) GPU。幾乎所有 AI 里程碑都發(fā)生在英偉達(dá)硬件上。

縱觀 AI 芯片市場,Nvidia H100 是訓(xùn)練機(jī)器學(xué)習(xí)系統(tǒng)的最流行 GPU 之一,在市場日益短缺的情況下,它在 eBay 等經(jīng)銷商那里的售價高達(dá) 40,000 美元。高漲的需求,加上產(chǎn)能的限制,英偉達(dá)芯片不僅時常短缺而且價格昂貴,給微軟、谷歌這類急于擴(kuò)充算力的公司形成了較大的壓力。越來越多的企業(yè)開始使用人工智能來理解他們收集的海量數(shù)據(jù),而各國政府則在向深度學(xué)習(xí)研究領(lǐng)域投入資金以保持領(lǐng)先地位。

顯然,整個AI芯片市場都需要更多、更好的人工智能芯片。

挑戰(zhàn)者正在試圖趕上英偉達(dá)在 AI 芯片市場上的統(tǒng)治者地位。2015年,谷歌開始制造自己的芯片;2016年,亞馬遜收購 Annapurna Labs 后便將 Alexa 的大腦轉(zhuǎn)移到自己的 Inferentia 芯片上;2019 年,英特爾為其 Xeon 數(shù)據(jù)中心 CPU 添加了 AI 加速模塊。百度擁有昆侖;高通擁有 Cloud AI 100;IBM 正在致力研發(fā)一種節(jié)能設(shè)計(jì);AMD 收購了 Xilinx 用于 AI 數(shù)據(jù)中心產(chǎn)品等等,越來越多的云服務(wù)巨頭紛紛自研AI芯片。

有行業(yè)分析師評論道,對普通的云計(jì)算公司來說,他們的最佳方案是從英偉達(dá)那里購買。而對于谷歌、亞馬遜這樣的巨頭來說,自研芯片才是長久之道。

聲明: 本網(wǎng)站所刊載信息,不代表OFweek觀點(diǎn)?帽菊靖寮瑒(wù)經(jīng)書面授權(quán)。未經(jīng)授權(quán)禁止轉(zhuǎn)載、摘編、復(fù)制、翻譯及建立鏡像,違者將依法追究法律責(zé)任。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標(biāo)題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號