Don't Miss
蘋果押後監察兒童色情照片計劃
By 信報財經新聞 on September 4, 2021
原文刊於信報財經新聞
美國蘋果公司決定,推遲審查用戶圖片庫有否兒童色情照片的計劃,原因是外界有反對聲音,關注蘋果的監察行動可能侵犯用戶私隱。
蘋果稱,上月公布有關保護兒童免受性剝削的計劃後,用戶、研究員及壓力團體作出回饋,集團衡量後,決定押後數個月推出監察行動計劃,以便有充裕時間收集公眾對計劃的意見,並完善操作流程,然後才考慮實施有關計劃。暫時不確定蘋果何時落實有關安排。
按照蘋果原先公布,公司將於今年內實施新檢視程式CSAM,以審查雲服務用戶儲存的圖片庫,確保沒有兒童色情照片。CSAM並不逐一審查照片,而是搜索照片,以確定有否符合預設的兒童色情照片數碼蹤跡,只有當照片庫包括被界定為兒童色情照片的足夠數量檔案,CSAM才會發出警告,並且把資料轉送到執法部門。
支持EJ Tech
如欲投稿、報料,發布新聞稿或採訪通知,按這裏聯絡我們。