ITBear旗下自媒体矩阵:

苹果放弃争议计划:iCloud停止儿童性虐待材料检测

   时间:2023-09-01 09:32:41 来源:ITBEAR编辑:茹茹 发表评论无障碍通道

【ITBEAR科技资讯】9月1日消息,苹果公司去年12月宣布,取消了其备受争议的iCloud云服务儿童性虐待材料(CSAM)检测计划。这一计划最早于2021年8月开始测试,旨在通过扫描存储在iCloud中的图像资料,帮助阻止儿童性虐待。然而,这一举措引发了媒体、非营利机构和消费者的广泛反对声音。

起初,苹果公司表示计划将在iOS15和iPadOS15的更新中实现,但由于来自客户、宣传团体、研究人员等方面的强烈反馈,该公司最终决定推迟实施该功能。一家名为Heat Initiative的儿童安全组织本周与苹果公司取得联系,表示正在策划一项活动,呼吁苹果在iCloud中实施CSAM的检测、报告和删除,并提供更多工具,让用户能够向公司举报CSAM内容。

苹果公司罕见地对Heat Initiative做出了回应。苹果公司的用户隐私和儿童安全总监Erik Neuenschwander在回应中解释了放弃开发iCloud CSAM扫描功能的原因。他表示,尽管儿童性虐待材料是令人憎恶的,但扫描用户私人存储的iCloud数据可能会成为数据窃贼的目标,从而创造出新的安全威胁。此外,这种扫描方式可能导致意想不到的严重后果,例如可能被滥用用于大规模监控,甚至可能引发跨不同内容类型的搜索需求,扩展到其他加密消息传递系统。

苹果公司之前曾表示,经过广泛征求专家意见并考虑到儿童保护举措的反馈后,他们决定加大对"Communication Safety"功能的投资,该功能于2021年12月推出。因此,他们决定不再推进之前提出的iCloud照片CSAM检测工具。苹果公司强调,儿童可以在不需要公司梳理个人数据的情况下得到保护,并将继续与政府、儿童倡导者以及其他公司合作,共同努力维护年轻人的隐私权,使互联网成为更安全的环境。

标签: 苹果
举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version