站長(zhǎng)之家(ChinaZ.com)2月1日 消息:昨日,公安部網(wǎng)安局發(fā)文提醒用戶,應(yīng)該注意防范利用AI人工智能等新型手段詐騙。
公安部網(wǎng)安局稱,AI詐騙常用手法包括了,合成聲音、AI換臉等方式。
合成聲音案例中,騙子通過(guò)騷擾電話錄音等來(lái)提取某人聲音,獲取素材后進(jìn)行聲音合成,從而可以用偽造的聲音騙過(guò)對(duì)方。而AI換臉中,騙子首先分析公眾發(fā)布在網(wǎng)上的各類信息,根據(jù)所要實(shí)施的騙術(shù),通過(guò)AI技術(shù)篩選目標(biāo)人群。在視頻通話中利用AI換臉,騙取信任。
對(duì)此,公安部網(wǎng)安局提醒用戶,面對(duì)AI詐騙應(yīng)該在涉及錢款時(shí),盡量通過(guò)電話詢問(wèn)具體信息,確認(rèn)對(duì)方是否為本人。同時(shí),加強(qiáng)個(gè)人信息保護(hù)意識(shí),對(duì)于不明平臺(tái)發(fā)來(lái)的廣告、中獎(jiǎng)、交友等鏈接提高警惕,不隨意填寫個(gè)人信息,以免被騙子“精準(zhǔn)圍獵”。
此外,做好家中老人的宣傳防范工作。提醒老年人在接到電話、短信時(shí),要放下電話,再次撥打家人電話確認(rèn),不要貿(mào)然轉(zhuǎn)賬。
(舉報(bào))