【新智元導(dǎo)讀】微調(diào)LLM需謹(jǐn)慎,用良性數(shù)據(jù)、微調(diào)后角色扮演等都會破壞LLM對齊性能!學(xué)習(xí)調(diào)大了還會繼續(xù)提高風(fēng)險!雖說預(yù)訓(xùn)練語言模型可以在零樣本(zero-shot)設(shè)置下,對新任務(wù)實現(xiàn)非常好的泛化性能,但在現(xiàn)實應(yīng)用時,往往還需要針對特定用例對模型進(jìn)行微調(diào)。不過,微調(diào)后的模型安全
......
本文由站長之家合作伙伴自媒體作者“新智元公眾號”授權(quán)發(fā)布于站長之家平臺,本平臺僅提供信息索引服務(wù)。由于內(nèi)容發(fā)布時間超過平臺更新維護(hù)時間,為了保證文章信息的及時性,內(nèi)容觀點的準(zhǔn)確性,平臺將不提供完全的內(nèi)容展現(xiàn),本頁面內(nèi)容僅為平臺搜索索引使用。需閱讀完整內(nèi)容的用戶,請查看原文,獲取內(nèi)容詳情。
(舉報)