掃描 iCloud 照片惹爭議   網傳 Apple 或放棄 CSAM 追蹤計劃

虎仔 / 馬日山 2021-12-16 10:45 | Apple
今年 8 月 Apple 公佈簡稱 CSAM 的項目,目的是保障兒童免被戀童癖騷擾和阻止兒童色情內容傳播,其中一項措施包括掃描用戶的 iCloud 相片庫,這個安排引起了侵犯私隱或被政府濫用的爭議。因為遇到網民和用戶的不滿,Apple 決定將 CSAM 相關功能延遲推出。
 
iOS 15.2 正式版日前推出,部份 CSAM 的功能亦隨之提供,包括當 iPhone 或 iPad 兒童用戶發送或收到裸體照片,用戶和其家長會收到警告訊息。此外,Siri 和 Search 功能都會在搜尋兒童色情內容時發出警告,不過上述兩項功能都並非預設開啟,要家長在 Family Sharing 下手動啟用。
 
至於掃描用戶 iCloud 尋找與 CSAM 相關的照片,若有發現再交由真人審視的安排,則未有隨 iOS 15.2 推出。網站 MacRumors 發現原本 Apple 官網介紹 CSAM 的頁面,現時已經全部移除,估計 Apple 因為外界的負評,可能撤回推出 CSAM 項目。Apple 發言人向傳媒表示收到顧客、關注組織、學者等的意見後,決定花更多時間作出改善,再推出重要的保障兒童安全功能。
 
1216-1a.jpg

資料來源:macrumors
 

最新新聞