站長(zhǎng)之家(ChinaZ.com)3月30日 消息:安全研究人員表示,急于采用熱門(mén)新型人工智能的公司在使用該技術(shù)的開(kāi)源版本時(shí)應(yīng)謹(jǐn)慎行事,其中一些版本功能可能不僅不如宣傳的好,還有可能包含黑客可以利用的漏洞。
據(jù)彭博社報(bào)道,美國(guó)國(guó)防部(Defense Department)客戶(hù)、機(jī)器學(xué)習(xí)安全公司Robust Intelligence的杰出工程師 Hyrum Anderson 表示,很少有方法可以提前知道特定的 AI 模型是否安全。Anderson 稱(chēng),他發(fā)現(xiàn)一半公開(kāi)可用的圖像分類(lèi)模型在他的測(cè)試中失敗了。其目的是確定惡意行為者是否可以以可能構(gòu)成安全風(fēng)險(xiǎn)或提供不正確信息的方式改變?nèi)斯ぶ悄艹绦虻妮敵觥?/p>
Anderson 表示,模型通常使用特別容易出現(xiàn)安全漏洞的文件類(lèi)型。這是一個(gè)很?chē)?yán)重的問(wèn)題,因?yàn)楹芏喙驹跊](méi)有完全理解底層技術(shù)的情況下從公開(kāi)來(lái)源獲取模型,而不是自己創(chuàng)造。90% 的 Robust Intelligence 公司使用從人工智能模型庫(kù) Hugging Face 下載模型。
(舉報(bào))