《百度安全亮相Black Hat Asia 2019:當(dāng)云端深度學(xué)習(xí)模型失去“黑盒保護”》文章已經(jīng)歸檔,站長之家不再展示相關(guān)內(nèi)容,下文是站長之家的自動化寫作機器人,通過算法提取的文章重點內(nèi)容。這只AI還很年輕,歡迎聯(lián)系我們幫它成長:
百度安全研究員提出的“指紋攻擊”就是用于推算黑盒模型使用的特征提取層的有效方法——通過對深度學(xué)習(xí)模型的特征提取層中的最后一層的神經(jīng)元的離散值的最小化,從而使得目標(biāo)分類的置信度降低,通過搜集的14個不同的公開模型,分別構(gòu)造輸入樣本使得對應(yīng)的模型特征提取層的最后一層神經(jīng)元的離散值最小化,并把該構(gòu)造后的樣本以API方式輸入云端黑盒模型,并觀察最后分類層的輸出結(jié)果...
......
本文由站長之家用戶投稿,本平臺僅提供信息索引服務(wù)。由于內(nèi)容發(fā)布時間超過平臺更新維護時間,為了保證文章信息的及時性,內(nèi)容觀點的準(zhǔn)確性,平臺將不提供完整的內(nèi)容展現(xiàn),本頁面內(nèi)容僅為平臺搜索索引使用。需閱讀完整內(nèi)容的用戶,請聯(lián)系作者獲取原文。
(推廣)