劃重點(diǎn):
?? 英偉達(dá)發(fā)布AIEnterprise5.0,包括微服務(wù)和軟件容器,用于生成式AI應(yīng)用部署和加速計(jì)算。
?? NVIDIA AI Enterprise5.0涵蓋廣泛的微服務(wù),包括NVIDIA NIM和NVIDIA CUOpt,優(yōu)化AI模型推理并支持GPU加速。
?? AI Enterprise5.0可幫助用戶從安全、可投入生產(chǎn)且性能優(yōu)化的軟件中受益,可在數(shù)據(jù)中心、云端、工作站或網(wǎng)絡(luò)邊緣部署。
站長(zhǎng)之家(ChinaZ.com)3月27日 消息:英偉達(dá)正式發(fā)布了AI Enterprise5.0,這是一項(xiàng)旨在幫助企業(yè)加速生成式人工智能(AI)開發(fā)的重要產(chǎn)品。AI Enterprise5.0包含了英偉達(dá)微服務(wù)和可下載的軟件容器,這些組件可用于部署生成式AI應(yīng)用程序和加速計(jì)算。值得一提的是,這一產(chǎn)品已經(jīng)被Uber等知名客戶所采用。
隨著開發(fā)人員轉(zhuǎn)向微服務(wù)作為構(gòu)建現(xiàn)代企業(yè)應(yīng)用程序的有效方式,NVIDIA AI Enterprise5.0提供了廣泛的微服務(wù)。其中包括NVIDIA NIM和NVIDIA CUOpt,這些微服務(wù)針對(duì)生產(chǎn)中部署AI模型進(jìn)行了優(yōu)化,并且支持GPU加速,為用戶提供了更高效的推理過程。NVIDIA推理軟件,包括Triton Inference Server、TensorRT和TensorRT-LLM,為NIM提供了支持,從而將部署時(shí)間從幾周縮短到幾分鐘。這些微服務(wù)不僅提供了行業(yè)標(biāo)準(zhǔn)的安全性和可管理性,還與企業(yè)級(jí)管理工具兼容,為企業(yè)帶來了更便捷的部署體驗(yàn)。
此外,NVIDIA CUOpt作為一種GPU加速的AI微服務(wù),不僅創(chuàng)造了路線優(yōu)化的世界記錄,還能夠支持動(dòng)態(tài)決策,從而降低成本、時(shí)間和碳足跡。作為CUDA-X微服務(wù)之一,CUOpt在幫助各行業(yè)將人工智能投入生產(chǎn)方面發(fā)揮著重要作用。
未來,AI Enterprise5.0還將引入更多功能。例如,NVIDIA RAG LLM操作員(目前處于早期訪問階段)將有助于將副駕駛和其他使用檢索增強(qiáng)生成的生成式AI應(yīng)用程序從試點(diǎn)轉(zhuǎn)移到實(shí)際應(yīng)用落地,而無(wú)需重寫任何代碼。這一功能的引入將進(jìn)一步推動(dòng)企業(yè)在AI應(yīng)用領(lǐng)域的發(fā)展。
無(wú)論用戶通過何種方式訪問,AI Enterprise5.0都能為他們帶來諸多好處。該產(chǎn)品不僅可以從安全、可投入生產(chǎn)且性能優(yōu)化的軟件中受益,還能夠?qū)崿F(xiàn)靈活部署,可以部署在數(shù)據(jù)中心、云端、工作站或網(wǎng)絡(luò)邊緣,滿足不同場(chǎng)景下的需求。
(舉報(bào))