(资料图片)

【手机之家消息】据报道,苹果在12 月 8 日宣布 iCloud 云服务放弃儿童性虐待材料(CSAM)检测计划。早在一年前,苹果公司就宣布一系列儿童保护政策,这其中就包括儿童性虐待内容(简称 CSAM)检测,该功能让苹果检测存储在 iCloud 云端照片中的这类图像特征信息,如果确定有此类图像,苹果会向执法部门报告。同时Siri 和搜索功能改进,人们可询问 Siri 如何报告儿童性虐待内容或性剥削,Siri 将告诉用户在哪可以汇报给有关部门。

但计划推出以来就备受争议,受到了广泛的个人和组织的批评,包括安全研究人员、电子前沿基金会(EFF)、政治家、政策团体、大学研究人员,甚至还包括一些苹果员工。他们表示:虽然这些功能是为了保护儿童和减少儿童性虐待材料的传播,但我们担心它们会被用来审查受保护的言论,威胁到全世界人民的隐私和安全,并对许多儿童产生灾难性的后果。

面对种种质疑声,苹果也终于放弃了这项计划,并表示:“ 在广泛征求专家意见,收集我们去年提出的儿童保护举措的反馈后,我们正加大对2021年12月上线的Communication Safety功能的投资。我们决定不再推进我们之前提出的iCloud照片的CSAM检测工具。儿童可以在没有公司梳理个人数据的情况下得到保护,我们将继续与政府、儿童倡导者和其它公司合作,帮助保护年轻人,维护他们的隐私权,让互联网成为儿童和我们所有人更安全的地方。”

推荐内容