掃描 iCloud 照片惹爭議 網傳 Apple 或放棄 CSAM 追蹤計劃
|
Apple
iOS 15.2 正式版日前推出,部份 CSAM 的功能亦隨之提供,包括當 iPhone 或 iPad 兒童用戶發送或收到裸體照片,用戶和其家長會收到警告訊息。此外,Siri 和 Search 功能都會在搜尋兒童色情內容時發出警告,不過上述兩項功能都並非預設開啟,要家長在 Family Sharing 下手動啟用。
至於掃描用戶 iCloud 尋找與 CSAM 相關的照片,若有發現再交由真人審視的安排,則未有隨 iOS 15.2 推出。網站 MacRumors 發現原本 Apple 官網介紹 CSAM 的頁面,現時已經全部移除,估計 Apple 因為外界的負評,可能撤回推出 CSAM 項目。Apple 發言人向傳媒表示收到顧客、關注組織、學者等的意見後,決定花更多時間作出改善,再推出重要的保障兒童安全功能。
資料來源:macrumors