Notebookcheck Logo

Apple 因未在 iCloud 中实施 CSAM 检测而被起诉

Apple 因未在 iCloud 中实施 CSAM 检测而被起诉(图片来源:Tayyab Ejaz 在 Unsplash 上拍摄的照片)
Apple 因未在 iCloud 中实施 CSAM 检测而被起诉(图片来源:Tayyab Ejaz 在 Unsplash 上拍摄的照片)
Apple 因未能找到在 iCloud 中实施 CSAM 检测的方法而在北加州面临诉讼。该诉讼是由一名受害者提起的,她声称 放弃了该程序,未能阻止她的图片在网上被共享。Apple
Cyberlaw Security

2021 年,Apple 宣布然后迅速 撤回该系统将扫描 iMessage 和 iCloud 照片,以查找任何儿童性虐待材料 (CSAM)。

该系统本可以让Apple 分析儿童使用的Apple 设备中的照片,但由于专家和倡导团体提出的隐私问题,该公司发现自己陷入了风暴眼。Apple 放弃了该系统,称他们将 "在未来几个月内花更多时间收集意见并进行改进,然后再发布这些至关重要的儿童安全功能"。

从那以后的几年里,Apple 对任何有关 CSAM 的功能都保持沉默。现在(通过Engadget),一名受害者向美国北加州地区法院提起诉讼,称Apple 未能建立安全防范措施,导致她的照片在网上被不当传播。

https://www.nytimes.com/2024/12/08/technology/apple-child-sexual-abuse-material-lawsuit.html纽约时报》首次报道,这位 27 岁的受害者说,她和她的母亲不断收到几个人被控藏毒的通知。该诉讼要求对 2680 名图片被泄露到网上的受害者进行经济赔偿。

Apple 发言人弗雷德-塞恩斯(Fred Sainz)告诉 Engadget,CSAM "令人深恶痛绝,我们致力于打击掠夺者将儿童置于危险境地的行为"。塞恩斯说,该公司正在 "紧急而积极地 "寻找 "在不损害我们所有用户的安全和隐私的情况下打击这些犯罪 "的方法。

资料来源

Engadget,《纽约时报

图片来源:《纽约时报图片来源:Tayyab EjazUnsplash

Please share our article, every link counts!
Mail Logo
> Notebookcheck中文版(NBC中国) > 新闻 > 新闻档案 > 新闻档案 2024 12 > Apple 因未在 iCloud 中实施 CSAM 检测而被起诉
Rohith Bhaskar, 2024-12- 9 (Update: 2024-12- 9)