蘋果公司上周五表示,將在 iOS、iPadOS、watchOS和macOS中引入新的兒童安全功能,以限制兒童性虐待材料 (CSAM) 在美國的傳播。該舉措引起全球?qū)τ陔[私的熱議,斯諾登更是稱蘋果這是強(qiáng)推:“大規(guī)模監(jiān)視”。
為此,蘋果公司表示,除了利用設(shè)備上的機(jī)器學(xué)習(xí)來審查所有iMessage信息外,它還打算開始對通過每臺Apple設(shè)備共享的圖像進(jìn)行客戶端掃描,以查找正在上傳到iCloud照片的已知虐待兒童內(nèi)容。未成年人帳戶(13 歲以下)發(fā)送或接收的圖像,以警告父母注意通過消息平臺共享的色情照片。
此外,Apple還計劃更新Siri和Search,以便在用戶嘗試搜索CSAM相關(guān)主題時進(jìn)行干預(yù),提醒“對該主題的興趣有害且有問題”。
“消息使用設(shè)備上的機(jī)器學(xué)習(xí)來分析圖像附件并確定照片是否具有色情內(nèi)容,”Apple指出。“該功能旨在讓Apple無法訪問這些消息?!?該功能稱為通信安全,據(jù)說是一種選擇加入設(shè)置,必須由父母通過家庭共享功能啟用。
如何檢測兒童性虐待材料
已知CSAM圖像的檢測涉及在照片上傳到云端之前,使用國家失蹤與受虐兒童中心 (NCMEC) 和其他兒童安全組織提供的已知CSAM圖像哈希數(shù)據(jù)庫進(jìn)行設(shè)備匹配?!癗euralHash”,正如系統(tǒng)所稱,由一種稱為私有集合交集的加密技術(shù)提供支持。但是,值得注意的是,雖然掃描是自動進(jìn)行的,但該功能僅在 iCloud照片共享打開時才有效。
更重要的是,Apple 預(yù)計將使用另一種稱為閾值秘密共享的加密原理,如果 iCloud照片帳戶超過已知虐待兒童圖像的閾值,它可以“解釋”內(nèi)容,然后手動審查內(nèi)容以確認(rèn)存在匹配,如果是,則禁用用戶的帳戶,將材料報告給NCMEC,并將其傳遞給執(zhí)法部門。
研究人員對隱私表示擔(dān)憂
Apple的CSAM計劃促使安全研究人員表達(dá)了他們的擔(dān)憂,即它可能會受到任務(wù)蠕變的影響,并被擴(kuò)展到檢測可能具有政治和安全影響的其他類型的內(nèi)容,甚至通過向無辜的人發(fā)送旨在出現(xiàn)的無害但惡意的圖像來陷害他們作為兒童色情的匹配項。
美國舉報人愛德華·斯諾登在推特上表示,盡管該項目的意圖是好的,但蘋果推出的是“大規(guī)模監(jiān)視”,毫無疑問:如果他們今天可以掃描兒童色情內(nèi)容,他們明天就可以掃描任何內(nèi)容。而約翰霍普金斯大學(xué)密碼學(xué)教授和安全專家馬修格林 說,“問題在于加密是一種強(qiáng)大的工具,提供隱私,你不可能真正擁有強(qiáng)大的隱私,同時監(jiān)視任何人發(fā)送的每張圖像?!?/p>
蘋果CSAM檢測
Apple已經(jīng)根據(jù)已知的虐待兒童圖像檢查了通過電子郵件發(fā)送的iCloud文件和圖像,谷歌、Twitter、微軟、Facebook 和 Dropbox等科技巨頭也是如此,它們采用類似的圖像散列方法來尋找和標(biāo)記潛在的虐待材料,但該公司的試圖走隱私鋼絲繩可能會重新引發(fā)關(guān)于削弱加密的辯論,升級數(shù)字時代關(guān)于隱私和警務(wù)的長期拉鋸戰(zhàn)。
《紐約時報》在2019年的一項調(diào)查中透露,2018年有創(chuàng)紀(jì)錄的4500萬張兒童被性虐待的在線照片和視頻被報道,其中Facebook Messenger占近三分之二,F(xiàn)acebook整體占據(jù)報告的90%。
對于一家與Facebook旗下的WhatsApp一起一直抵制有意削弱加密和后門系統(tǒng)的努力的公司來說,即將發(fā)生的變化也標(biāo)志著某種轉(zhuǎn)變。路透社去年報道稱,在美國聯(lián)邦調(diào)查局 (FBI) 擔(dān)心這樣做會阻礙調(diào)查之后,該公司放棄了在 2018年加密用戶到iCloud的完整備份的計劃。
“剝削兒童是一個嚴(yán)重的問題,蘋果并不是第一家為了打擊它而改變其隱私保護(hù)立場的科技公司。但這種選擇將為整體用戶隱私付出高昂的代價,”電子前沿基金會(EFF)說,在一份聲明中指出,蘋果此舉可能會破壞加密保護(hù),并打開大門更廣泛的濫用。
“擴(kuò)大Apple正在構(gòu)建的狹窄后門所需要的只是擴(kuò)展機(jī)器學(xué)習(xí)參數(shù)以尋找其他類型的內(nèi)容,或者調(diào)整要掃描的配置標(biāo)志,不僅是兒童的賬戶,而是任何人的賬戶。那不是一個滑坡;這是一個完整的系統(tǒng),只是在等待外部壓力做出最細(xì)微的變化,”它補(bǔ)充道。
CSAM工作將在未來幾個月內(nèi)作為iOS 15和macOS Monterey的一部分在美國推出,但它是否或何時在國際上可用還有待觀察。2020年12月,F(xiàn)acebook被迫關(guān)閉其在歐洲的一些兒童虐待檢測工具,以響應(yīng)歐盟委員會電子隱私指令的最新變化,該指令有效禁止自動系統(tǒng)掃描兒童性虐待圖像和其他非法內(nèi)容而無需用戶明確同意。