最近,清華和微軟的研究人員提出了一種全新的方法,能在保證輸出質(zhì)量不變的前提下,將提示詞壓縮到原始長度的20%!在自然語言處理中,有很多信息其實是重復(fù)的。如果能將提示詞進行有效地壓縮,某種程度上也相當于擴大了模型支持上下文的長度?,F(xiàn)有的信息熵方法是通過刪除某些詞或短
......
本文由站長之家合作伙伴自媒體作者“新智元公眾號”授權(quán)發(fā)布于站長之家平臺,本平臺僅提供信息索引服務(wù)。由于內(nèi)容發(fā)布時間超過平臺更新維護時間,為了保證文章信息的及時性,內(nèi)容觀點的準確性,平臺將不提供完全的內(nèi)容展現(xiàn),本頁面內(nèi)容僅為平臺搜索索引使用。需閱讀完整內(nèi)容的用戶,請查看原文,獲取內(nèi)容詳情。
(舉報)