返回网站首页
当前位置:主页 > 煎饼的做法 >
官网删除「儿童图片检测方案」但苹果仍未放弃该计划
作者:admin  日期:2021-12-18 20:50 来源:未知 浏览:

  香港最快开奖现场88859312月16日上午消息,苹果公司在其网站上更新了其儿童安全功能的相关信息,删除了所有关于8月宣布的儿童材料(CSAM)检测功能。不过,尽管网站描述发生了变化,但该公司表示,这项功能的计划仍在进行中。

  第一个功能是iCloud Photos CSAM检测功能:这个功能允许检测用户iCloud上的照片是否涉及儿童并将其报告给苹果审核员,审核员可以将报告转交给执法部门。

  第二个功能是信息通信安全功能:当孩子收到色情图片时,图片会作模糊化处理,当检测到他们要查看的图像涉及CSAM时,会发出警告消息提醒孩子和家长。

  第三个功能是Siri和搜索干预功能:通过提供额外资源来帮助儿童和父母保持网上安全,如果在不安全时候可通过Siri和搜索获得帮助指导。例如,询问Siri如何报告儿童内容或剥削童工,以及发现这些情况后如何向有关部门汇报。

  这些功能一经宣布就引起热议,其中最有争议的CSAM检测功能遭到了强烈反对,提出批评的包括安全研究人员、隐私吹哨人、电子前沿基金会(EFF)、Facebook前安全主管、政客、大学研究人员,甚至一些苹果员工。一些权利团体称:“虽然这些功能是为了保护儿童和减少儿童材料的传播,但我们担心它们会被用来审查受保护的言论,威胁到全世界人民的隐私和安全,并对许多儿童产生灾难性的后果。”

  面对世界各地90多个政策和权利团体的抗议,今年9月,苹果不得不叫停了CSAM计划。该公司在其儿童安全网页上的一份声明中表示:“此前,我们宣布了一些新增功能的计划,旨在保护儿童免受侵害,并限制儿童性侵内容的传播。根据用户、宣传团体、研究人员和其他人的反馈,我们决定在未来几个月花额外的时间收集意见,并在这些儿童安全功能正式上线之前做出改进。”

  MacRumors发现,大约在12月10日至12月13日之间,相关方案的资料已从苹果官网上移除。不过,尽管网站上的资料发生了变化,但该公司表示,这项功能的计划并没有改变,只是暂时性的推迟。

  CSAM检测功能还没有具体的发布日期,其他儿童保护功能都已发布,几天前,苹果推出iOS15.2,正式启用了儿童安全保护措施「信息通信安全功能」,用来自动判断接收或发送是否为色情图片。苹果表示这项功能主要是利用机器学习技术来分析照片,确认iMessages接收或发送照片是否包含色情图片,所有分析全部都在装置内进行,苹果无法得知,该功能将率先在美国地区推出。

  ☞ 百度网盘青春版将不限速;Bing在中国内地暂停“搜索自动建议”功能30天;新款iPhone SE将支持5G极客头条

上一篇:iPhone 14 Pro最新渲染图出炉挖孔很别致果粉真的很喜欢!
下一篇:绥芬河耐腐蚀生料带厂商定制