據(jù)外媒報(bào)道,蘋(píng)果今日(當(dāng)?shù)貢r(shí)間8月5日)宣布,隨著iOS15和iPadOS15的發(fā)布,它將開(kāi)始在美國(guó)掃描iCloud照片以尋找已知的兒童性虐待材料(CSAM),另外還計(jì)劃向國(guó)家失蹤和被剝削兒童中心(NCMEC)報(bào)告調(diào)查結(jié)果。
據(jù)悉,在蘋(píng)果詳細(xì)闡述其計(jì)劃之前,有關(guān)CSAM倡議的消息就已泄露,安全研究人員已經(jīng)開(kāi)始對(duì)蘋(píng)果的新圖像掃描協(xié)議在未來(lái)可能如何使用表示擔(dān)憂。
眼下,蘋(píng)果正在使用NeuralHash系統(tǒng),其將已知的CSAM圖像跟用戶iPhone上的照片進(jìn)行比較然后再上傳到iCloud上。如果匹配,照片就會(huì)跟加密安全憑證一起上傳,當(dāng)達(dá)到一定閾值時(shí)就會(huì)觸發(fā)審查,該審查會(huì)檢查該名用戶的設(shè)備上是否有CSAM。
目前,蘋(píng)果正在使用其圖像掃描和匹配技術(shù)來(lái)尋找虐待兒童的情況,但研究人員擔(dān)心,在未來(lái),它可能會(huì)被用于掃描其他更令人擔(dān)憂的圖像如抗議活動(dòng)中的反政府標(biāo)語(yǔ)。
來(lái)自約翰霍普金斯大學(xué)的密文研究員Matthew Green在一系列推文中指出,CSAM掃描是一個(gè)非常糟糕的主意,因?yàn)樵谖磥?lái),它可能會(huì)擴(kuò)展到掃描端到端加密的照片,而不僅僅是上傳到?iCloud?的內(nèi)容。對(duì)于兒童,蘋(píng)果正在實(shí)施一項(xiàng)單獨(dú)的掃描功能,其直接在端到端加密的iMessages中尋找色情內(nèi)容。
Green還對(duì)蘋(píng)果計(jì)劃使用的哈希提出了擔(dān)憂,因?yàn)檫@里面可能存在“沖突”,即某人發(fā)送一個(gè)跟CSAM共享哈希的無(wú)害文件進(jìn)而可能導(dǎo)致錯(cuò)誤標(biāo)記。
對(duì)此,蘋(píng)果方面表示,其掃描技術(shù)具有極高的準(zhǔn)確性以確保賬號(hào)不會(huì)被錯(cuò)誤標(biāo)記,在用戶的?iCloud?賬號(hào)被禁用并向NCMEC發(fā)送報(bào)告之前報(bào)告會(huì)被手動(dòng)審查。
Green認(rèn)為,蘋(píng)果的實(shí)施將會(huì)推動(dòng)其他科技公司也采用類似的技術(shù)。他寫(xiě)道:“這將打破障礙。政府會(huì)要求每個(gè)人都這么做?!彼堰@項(xiàng)技術(shù)比作是“專制政權(quán)部署的工具”。
曾在Facebook工作的安全研究員Alec Muffett表示,蘋(píng)果實(shí)施這種圖像掃描的決定是“對(duì)個(gè)人隱私而言的巨大倒退”。
劍橋大學(xué)的安全工程教授Ross Anderson稱這絕對(duì)是一個(gè)可怕的想法,其將可能導(dǎo)致對(duì)設(shè)備進(jìn)行分布式大規(guī)模監(jiān)控。
正如許多人在Twitter上指出的那樣,多家科技公司已經(jīng)為CSAM做了圖像掃描。Google、Twitter、微軟、Facebook和其他網(wǎng)站使用圖像哈希法來(lái)尋找和報(bào)告已知的虐待兒童的圖像。
同樣值得注意的是,蘋(píng)果在推出新的CSAM倡議之前就已經(jīng)掃描了一些兒童虐待圖片的內(nèi)容。2020年,蘋(píng)果首席隱私官Jane Horvath表示,蘋(píng)果使用篩查技術(shù)尋找非法圖像,如果檢測(cè)到CSAM的證據(jù)就會(huì)封掉該賬號(hào)。
由于蘋(píng)果曾在2019年更新了其隱私政策--它將掃描上傳的內(nèi)容以尋找潛在的非法內(nèi)容,包括兒童性剝削材料--所以現(xiàn)在這份新的聲明并不完全是新的。
(舉報(bào))