劃重點(diǎn):
?? Hugging Face 承諾投入1000萬美元的 GPU 計算資源,幫助小型開發(fā)者開發(fā)新的 AI 技術(shù)
?? 該舉措旨在降低開發(fā) AI 應(yīng)用的門檻,對抗人工智能領(lǐng)域的中心化趨勢
?? Hugging Face 希望通過分享計算資源,使每個人都能夠使用先進(jìn)的人工智能技術(shù)
站長之家(ChinaZ.com)5月17日 消息:機(jī)器學(xué)習(xí)公司 Hugging Face 承諾投入1000萬美元的 GPU 計算資源,幫助開發(fā)者和初創(chuàng)公司對抗大型人工智能公司。
Hugging Face 的首席執(zhí)行官 Clem Delangue 表示:“我們很幸運(yùn)能夠投資社區(qū)?!?該公司最近籌集了2.35億美元的資金,估值達(dá)45億美元。Delangue 擔(dān)心人工智能初創(chuàng)公司無法與科技巨頭競爭。目前,人工智能域最重大的進(jìn)步仍然被主要科技公司所壟斷,這些公司不僅有經(jīng)濟(jì)激勵來保持其型的專有性,而且擁有龐大的計算資源。
Hugging Face 的目標(biāo)是讓每個人都能夠使用最先的人工智能技術(shù),而不僅僅是大型科技巨頭。為了降低開發(fā) AI 應(yīng)用的門檻,ugging Face 通過一個名為 ZeroGPU 的項目免費(fèi)共享 GPU 計算資源。這些共享的 GPU 可以同時為多個用戶或應(yīng)用程序供服務(wù),無需每個用戶或應(yīng)用程序都有獨(dú)立的 GPU。
ZeroGPU 將通過 Hugging Face 的 Spaces 平臺提供,Spaces 一個用于發(fā)布應(yīng)用程序的托管平臺,據(jù)該公司稱,已經(jīng)有超過30萬個 AI 演示應(yīng)用程序在該平上創(chuàng)建,這些應(yīng)用程序目前使用的是 CPU 或付費(fèi) GPU。
通過 ZeroGPU,用戶可以根據(jù)使用情況獲對共享的訪問權(quán)限。如果某部分 GPU 容量沒有被活躍地使用,這部分容量就可以被其他人使用,從而使算資源更具成本效益、能源效率,并且適合整個社區(qū)的使用。ZeroGPU 使用 Nvidia A GPU 設(shè)備來支持這個項目,相比更昂貴的 H100,A100提供了大約一半的計算速度。
公司需要與云服務(wù)提供商簽訂一年或更長時間的合同來獲得 GPU 資源,這對于小公司獨(dú)立開發(fā)者和學(xué)術(shù)界的人員來說不利,因?yàn)樗麄兒茈y預(yù)測自己的項目是否會取得成功。論使用情況如何,他們?nèi)匀恍枰Ц?GPU 的費(fèi)用。Delangue 表示:“預(yù)測需要多少 GPU 和什么樣預(yù)算是一場噩夢?!?/p>
隨著人工智能在閉門造車的同時迅速發(fā)展,Hugging Face 的目標(biāo)是讓們能夠在開放環(huán)境中構(gòu)建更多的人工智能技術(shù)。目前已經(jīng)有超過3.5萬個種的開源 AI 模型 Llama 在 Hugging Face 上共享,這些模型從 “量子化和合并模型到生物學(xué)普通話等專門領(lǐng)域的模型” 都有。Delangue 在新聞發(fā)布稿中表示:“人工智能不應(yīng)該掌握在少數(shù)人手中。通過對開源開發(fā)者的承諾,我們期待看到大家在合作和透明的神下創(chuàng)造出什么樣的新東西?!?/p>
(舉報)