在設(shè)計(jì)集成電路時(shí),工程師的目標(biāo)是生產(chǎn)出更容易制造的高效設(shè)計(jì)。如果他們?cè)O(shè)法降低電路尺寸,那么制造該電路的經(jīng)濟(jì)性也會(huì)下降。英偉達(dá)公司在其技術(shù)博客上發(fā)布了一項(xiàng)技術(shù),該公司使用一種名為PrefixRL的人工智能模型。利用深度強(qiáng)化學(xué)習(xí),英偉達(dá)公司使用PrefixRL模型來(lái)超越主要供應(yīng)商的傳統(tǒng)EDA(電子設(shè)計(jì)自動(dòng)化)工具,如Cadence、Synopsys或Siemens/Mentor。
EDA供應(yīng)商通常會(huì)在內(nèi)部實(shí)施人工智能解決方案,以實(shí)現(xiàn)硅片放置和路由(PnR);然而,英偉達(dá)的PrefixRL解決方案似乎在該公司的工作流程中創(chuàng)造了奇跡。
創(chuàng)建一個(gè)深度強(qiáng)化學(xué)習(xí)模型,旨在保持與EDA PnR嘗試相同的延遲,同時(shí)實(shí)現(xiàn)更小的芯片面積,這是PrefixRL的目標(biāo)。
根據(jù)NVIDIA技術(shù)博客介紹,最新的Hopper H100 GPU架構(gòu)使用了PrefixRL AI模型設(shè)計(jì)的13000個(gè)算術(shù)電路實(shí)例。英偉達(dá)制作的模型輸出的電路比同類EDA輸出的電路小25%。這一切都在實(shí)現(xiàn)類似或更好的延遲。下面你可以在圖中比較PrefixRL制作的64位加法器設(shè)計(jì)和一個(gè)業(yè)界領(lǐng)先的EDA工具制作的相同設(shè)計(jì)。
訓(xùn)練這樣一個(gè)模型是一項(xiàng)計(jì)算密集型的任務(wù)。英偉達(dá)公司報(bào)告說(shuō),設(shè)計(jì)一個(gè)64位加法器電路的訓(xùn)練,每個(gè)GPU需要256個(gè)CPU核心和32000個(gè)GPU小時(shí)。該公司開(kāi)發(fā)了Raptor,這是一個(gè)內(nèi)部分布式強(qiáng)化學(xué)習(xí)平臺(tái),利用英偉達(dá)硬件的獨(dú)特優(yōu)勢(shì)進(jìn)行這種工業(yè)強(qiáng)化學(xué)習(xí),你可以看到下面的內(nèi)容以及它的操作方式:
總的來(lái)說(shuō),該系統(tǒng)相當(dāng)復(fù)雜,需要大量的硬件和投入;然而,回報(bào)是更小、更高效的GPU。
(舉報(bào))