ITBear旗下自媒体矩阵:

儿童安全组织呼吁苹果继续CSAM检测 公司回应解释原因

   时间:2023-09-01 13:48:42 来源:ITBEAR编辑:星辉 发表评论无障碍通道

【ITBEAR科技资讯】9月1日消息,苹果公司宣布取消了去年12月提出的iCloud云服务中的儿童性虐待材料(CSAM)检测计划,这一决定是在媒体、非营利机构和消费者的广泛反对声中做出的。

该检测计划于2021年8月首次测试,旨在检测存储在iCloud中的CSAM图像资料,但自发布以来引发了激烈争议。最初,苹果公司表示CSAM检测功能将在iOS15和iPadOS15的更新中实施,但由于客户、宣传团体、研究人员以及其他方面的反馈,该公司最终推迟了这一计划的实施。

据ITBEAR科技资讯了解,一家名为Heat Initiative的儿童安全组织本周发起了一项活动,要求苹果公司从iCloud中检测、报告和删除CSAM,并提供更丰富的工具,让用户能够向苹果公司报告CSAM内容。对此,苹果公司用户隐私和儿童安全总监Erik Neuenschwander罕见地回应了Heat Initiative,解释了放弃开发iCloud CSAM扫描功能的原因。

他表示:“儿童性虐待材料是令人憎恶的,我们致力于打破使儿童易受其影响的胁迫和影响链。然而,扫描每个用户私人存储的iCloud数据,会成为数据窃贼发现和利用创造新的威胁载体。而且这种方式可能会导致很多预期之外的严重后果,例如扫描一种类型的内容为批量监控打开了大门,并可能产生跨内容类型搜索其他加密消息传递系统的愿望。”

在关闭CSAM检测计划时,苹果公司表示,他们将继续投资于儿童保护举措,并强调儿童可以在没有公司梳理个人数据的情况下得到保护,同时承诺继续与政府、儿童倡导者和其他公司合作,以维护儿童的隐私权,努力使互联网成为儿童和所有人更加安全的地方。这一决策的公开回应表明苹果公司正在积极关注用户隐私和安全问题,并考虑了各方的关切。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version