要點:
1、代理調(diào)優(yōu)方法無需接觸模型的內(nèi)部權重。
2、通過對比小型調(diào)整模型和未調(diào)整模型的預測結(jié)果來引導基礎模型的預測。
3、代理調(diào)優(yōu)方法能夠在解碼時更好地保留訓練知識。
站長之家(ChinaZ.com)1月24日 消息:華盛頓大學推出更高效的大模型調(diào)優(yōu)方法“代理調(diào)優(yōu)”,該方法通過對比小型調(diào)整模型和未調(diào)整模型的預測結(jié)果來引導基礎模型的預測,實現(xiàn)對模型的調(diào)優(yōu)而無需接觸模型的內(nèi)部權重。
隨著ChatGPT等生成式AI產(chǎn)品的發(fā)展,基礎模型的參數(shù)不斷增加,因此進行權重調(diào)優(yōu)需要耗費大量時間和算力。為提升調(diào)優(yōu)效率,該方法可以在解碼時更好地保留訓練知識,同時保留更大規(guī)模預訓練的優(yōu)勢。研究人員對LlAMA-2的13B、70B原始模型進行了微調(diào),結(jié)果顯示代理調(diào)優(yōu)的性能比直接調(diào)優(yōu)的模型更高。
論文地址:https://arxiv.org/pdf/2401.08565.pdf
該方法需要準備一個小型的預訓練語言模型M-,與基礎模型M共享相同的詞匯表,然后使用訓練數(shù)據(jù)對M-進行調(diào)優(yōu)得到調(diào)優(yōu)模型M+。
在解碼時,通過對比基礎模型M的輸出預測分布和調(diào)優(yōu)模型M+的輸出預測分布之間的差異,來引導基礎模型的預測,最后將預測差異應用于基礎模型的預測結(jié)果,以引導基礎模型的預測朝向調(diào)優(yōu)模型的預測方向移動。這一方法與大模型中的“蒸餾”技術恰恰相反,是一種創(chuàng)新性的調(diào)優(yōu)方法。
代理調(diào)優(yōu)方法的推出,為大模型的調(diào)優(yōu)提供了更高效的解決方案,同時也可以在解碼時更好地保留訓練知識,使得模型的性能更高。這一方法的推出將為AI領域的發(fā)展帶來新的啟示,值得進一步深入研究和應用。
(舉報)