文章概要:
1. Nvidia在第二季度交付了900噸AI芯片,其中大部分可能供應(yīng)給Meta,引發(fā)了市場的廣泛關(guān)注。
2. Omdia的研究表明,對Nvidia AI芯片的需求激增,導(dǎo)致服務(wù)器平均價格上漲30%,并且市場規(guī)模預(yù)測將增長8%。
3. 盡管AI硬件需求增加,但AI的實(shí)際采用增長相對較慢,未來預(yù)計領(lǐng)域特定AI模型將成為主要關(guān)注點(diǎn)。
站長之家(ChinaZ.com) 9月19日 消息:根據(jù)Omdia研究公司稱,芯片巨頭Nvidia在第二季度交付了900噸其旗艦型號H100GPU的AI芯片,這一龐大的交付量主要是由于對其AI芯片需求的急劇增加。
Omdia報告指出,大量的GPU正涌入超大規(guī)模數(shù)據(jù)中心,這對服務(wù)器的出貨量造成了不利影響。與去年相比,服務(wù)器的交付量下降了100萬臺,降幅達(dá)到了17%。7月,該指數(shù)15年來首次下跌。
然而,與此相反的是,Omdia報告了AI GPU的需求的急劇增長,AI硬件的價格上漲也使服務(wù)器的平均價格同比增長了超過30%。這一對服務(wù)器配置的“戲劇性變化”,Omdia預(yù)測市場規(guī)模將達(dá)到1140億美元,同比增長8%。
從Omdia的數(shù)據(jù)來看,Nvidia將是最大的受益者之一,因?yàn)槠涞诙径?35億美元的收入中,有22%來自一位單一客戶,很可能是Meta。Omdia還預(yù)計,微軟、谷歌和“其他一些前十大云服務(wù)提供商”將成為Nvidia的“優(yōu)先客戶”。
對AI硬件的需求預(yù)計將持續(xù)到2024年上半年,尤其是因?yàn)樾酒圃鞆STSMC正在增加H100芯片所需的封裝能力。
然而,值得注意的是,AI硬件的需求增加并不意味著AI的實(shí)際使用也同樣增長迅速。Omdia的報告指出,“目前正在經(jīng)歷的對AI培訓(xùn)能力的快速投資不應(yīng)被誤解為對AI采用的快速增長”。
Omdia預(yù)計,AI浪潮將持續(xù)到2027年。未來五年,大型語言模型的數(shù)量將與面向消費(fèi)者的應(yīng)用程序一樣多。AI將轉(zhuǎn)向更專業(yè)化的用途,廣泛的模型將逐漸被邊緣模型所取代,其中包括Med-PaLM、Bio-GPT、BioBert和PubMedBert等行業(yè)特定模型,這些模型將通過對ChatGPT或Claude等廣泛、多模態(tài)的前沿模型的精細(xì)調(diào)整而構(gòu)建。
然而,隨著企業(yè)和其他組織對AI的采用增加,AI服務(wù)器的需求預(yù)計將隨時間減少。這是因?yàn)轭I(lǐng)域特定的AI模型具有“顯著較少”的參數(shù)、數(shù)據(jù)集大小、標(biāo)記和時代,這是根據(jù)研究公司的觀察得出的結(jié)論。
(舉報)