掃描 iCloud 圖片涉侵犯私隱   Apple 宣佈 CSAM 措施暫緩推出

虎仔 / 馬日山 2021-09-04 06:55 | Apple
在 8 月初 Apple 公佈保障兒童安全的措施,當中包括掃描用戶 iCloud 內的相片是否含有簡稱「CSAM」的兒童性虐待內容。由於做法涉及侵犯用戶私隱,引來不少爭議,Apple 昨日宣佈暫緩推出這措施,但並不會完全撤回,只是在正式推出前會花更多時間去完善功能。
 
01FB.jpg

在 Apple 的公開聲明中表示「上月我們宣佈了一些功能的計劃,目的是要幫助保護兒童免受『利用通訊工具招攬和剝削他們的掠奪者』的傷害,同時限制兒童性虐待内容的傳播。在收到用戶、倡議團體、研究人員和其他方面的反饋,我們決定在未來數個月,用更多時間收集意見和作出改進,之後再發表這些非常重要的兒童安全功能。」
 
原本 Apple 打算將這個 CSAM 掃描功能作為 iOS 15、iPadOS 15 和 macOS Monterey 更新的一部份,並且安排在今年稍後時間推出。如今 Apple 宣佈將計劃延期推出,但未有表明實際的推出時間表,亦沒有進一步解釋會作出哪些改變和完善措施。在上月宣佈 CSAM 掃描功能後,Apple 遭到私隱倡議者的強烈批評,就連 Apple 員工亦憂慮政府可能會離遠尋找 CSAM 內容,強迫 Apple 利用這項技術去進行其他監控審查,從而破壞 Apple 一直引以為傲的私隱保護政策。
 
資料來源:gizmodo
 

最新新聞