iOS开始审查用户照片 苹果为“后门”问题统一员工口径

苹果一直标榜自家的手机及iOS系统在用户隐私上的牢不可破,甚至不惜跟美国政府打官司。不过现在苹果改了一个政策,iOS会审查用户的照片,以致于苹果都要开始为此统一员工口径。

本月初,苹果宣布了一项新政策,将推出名为“neuralMatch”的新技术,它会在图片上传到iCloud之前进行扫描。如果它找到了匹配的CSAM(儿童性虐待照片),将会通知审核人员检查。若确认存在儿童色情内容,那么苹果方面将关闭账户,并通知美国国家失踪和被剥削儿童中心。

苹果这一举动受到了儿童保护组织的认可,但有更多的人认为苹果审查用户照片是个不好的苗头,觉得被植入了后门,担心该系统遭到滥用。

苹果此前解释过该系统的运作方式,称这一系统并不能真正“看到”用户的照片,而是采用“数字指纹”的技术,通过辨识图片中的关键信息,与现有的儿童性侵图像数据库内容对比。

虽然内部员工都有强烈的反对倾向,但苹果还是会执行这一政策,本周还给员工下发了最新的备忘录,要求员工在CSAM后门问题上统一口径,强调这一政策只针对iCloud中的CSAM内容,不会容忍被滥用。

iOS开始审查用户照片 苹果为“后门”问题统一员工口径

米粒
  • 本文由 发表于 2021年8月15日11:46:55
  • 转载请务必保留本文链接:https://www.miliol.org/102064.html
科技

毒性堪比眼镜蛇 乱摸水母会出人命!

抖音之前很流行的“水母手势舞”你会吗?张开手掌再捏住手指向后拉,收回手指,张开手指,你就可以得到一只简略版的水母~ 然而不是所有的水母都这般可爱无害,比如今天的主角&mdash...
匿名

发表评论

匿名网友 填写信息

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: