会员登录 - 用户注册 - 设为首页 - 加入收藏 - 网站地图 苹果回应解释放弃儿童性虐待材料(CSAM)检测计划的原因!

苹果回应解释放弃儿童性虐待材料(CSAM)检测计划的原因

时间:2024-05-03 10:12:40 来源:晨蓝头条 作者:综合 阅读:223次
9 月 1 日消息,苹果苹果公司在遭到媒体、回应划非营利机构和消费者的解释M检诸多反对之后,于去年 12 月宣布,放弃iCloud 云服务停止儿童性虐待材料(CSAM)检测计划。儿童

这项检测计划于 2021 年 8 月开始测试,性虐主要会检测存储在 iCloud 的待材 CSAM 图像资料,但自推出以来备受争议。测计

Illustration: Jacqui VanLiew

苹果最初表示,原因CSAM 检测将在 2021 年底之前在 iOS15 和 iPadOS15 的苹果更新中实现,但该公司最终根据 "客户、回应划宣传团体、解释M检研究人员和其它方面的放弃反馈" 推迟了这项功能。

一家名为 Heat Initiative 的儿童儿童安全组织本周告知苹果公司,正组织一项活动,性虐要求公司从 iCloud 中“检测、报告和删除”CSAM,并要求为用户提供更丰富的工具,来向苹果公司举报 CSAM 内容。

援引 Wired 报道,苹果公司罕见地回应了 Heat Initiative,苹果公司用户隐私和儿童安全总监 Erik Neuenschwander 在回应中概述了放弃开发 iCloud CSAM 扫描功能的原因:

儿童性虐待材料是令人憎恶的,我们致力于打破使儿童易受其影响的胁迫和影响链。

不过扫描每个用户私人存储的 iCloud 数据,会成为数据窃贼发现和利用创造新的威胁载体。

而且这种方式会导致很多预期之外的严重后果,例如扫描一种类型的内容为批量监控打开了大门,并可能产生跨内容类型搜索其他加密消息传递系统的愿望。

苹果公司此前在关闭 CSAM 计划时表示:

在广泛征求专家意见,收集我们去年提出的儿童保护举措的反馈后,我们正加大对 2021 年 12 月上线的 Communication Safety 功能的投资。我们决定不再推进我们之前提出的 iCloud 照片的 CSAM 检测工具。

儿童可以在没有公司梳理个人数据的情况下得到保护,我们将继续与政府、儿童倡导者和其它公司合作,帮助保护年轻人,维护他们的隐私权,让互联网成为儿童和我们所有人更安全的地方。

相关阅读:

《沉寂 1 年多后,苹果宣布 iCloud 放弃儿童性虐待材料(CSAM)检测计划》

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,所有文章均包含本声明。

(责任编辑:知识)

相关内容
  • 古特雷斯呼吁尽全力阻止对加沙拉法的地面行动
  • 驻韩美军近半韩籍雇员无薪休假
  • 哈梅内伊:伊朗有能力但不会发展核武器
  • 密林奇袭!直击武警特战队员捕歼战斗现场
  • 聖日門盼擒多蒙特
  • 中方参演官兵学用俄军装备  展现深度互信
  • 国防部回应医疗队悄然撤离:服务人民本色所在
  • 特朗普称已下令击毁“骚扰”美舰的伊朗快艇
推荐内容
  • 美联储决议前瞻:鲍威尔如何谈降息 缩表调整是否揭晓
  • 中国空军开放日先进装备成体系列阵静态展示
  • 韩媒:中国军机飞入韩国防识区 事先已通知
  • 日在宫古岛新部署防空反舰导弹 驻地人数翻倍
  • 南京公积金发布新政:南京都市圈9城公积金互认互贷
  • 俄军进入高超音速时代 专家:弯道超车领先美