下载APP | 繁體版 | 发布广告 |常用工具

对抗儿童情色 苹果重拳排查个人手机图片的是与非

京港台:2021-8-7 23:35| 来源:BBC中文 | 评论( 2 )  | 我来说几句


对抗儿童情色 苹果重拳排查个人手机图片的是与非

来源:倍可亲(backchina.com)

苹果公司宣布在美国的手机用户上排查儿童性虐材料(child sexual abuse material ,简称CSAM)新系统的细节。在图片被储存在云端图片库之前,这项技术将能搜寻与已知的CSAM图片匹配。

早在2020年1月,苹果高级隐私官员简·霍瓦特(Jane Horvath)就证实,苹果将扫描用户上传到云端的照片,寻找儿童性侵图片。

苹果表示,一旦发现儿童色虐图片,将把它交给后台的评审人员进行审核,然后把该手机用户上报给执法机关。

已经有人对担心这项技术可侵犯隐私权。一些专家甚至担心,这种技术有可能被集权政府用来监视其公民。他们担心技术可以被扩展到扫描一些保密的手机任容,甚至政治言论等。

苹果表示,将于晚些时候推出的iOS 和 iPadOS(平板电脑)新版操作系统将拥有“新的加密软件,以帮助限制CSAM的在线传播,同时其设计也考虑了保护用户隐私”。

工作原理

BBC北美科技事务记者詹姆斯‧克莱顿(James Clayton)说,该系统的工作原理是将用户手机的图片与美国国家失踪和受虐儿童中心( US National Center for Missing and Exploited Children 简称NCMEC)以及其他儿童安全组织汇总的已知儿童性虐图片数据库相比较。

这些图像然后被转换成散列(hashes,也有音译为哈希或杂凑)形式,即可以与苹果设备上图像“匹配”的数字代码。

苹果表示,该技术还将能捕捉到经过编辑、但相似版本的原图。

“准确度高”

苹果说,在图片被存储到云端之前,这种技术会自动把图片与已知的CSAM散列进行扫描处理对比。据悉,这一技术的准确性极高,并确保每一客户账户的出错率每年不超过万亿分之一。

苹果表示,如果发现匹配他们将人工手动审核每一份报告,给与证实。之后将采取措施关闭有问题客户的账号,并报告给法律部门处理。据介绍,同现有技术相比,新技术提供了“显著的”隐私优势。

苹果表示,只有当用户云端图片账户中有多张已知CSAM图片时才会引起关注,而这样做是为了更好的保护儿童。

另据报道,包括微软、谷歌和脸书在内的其他科技公司也分享了已知的儿童性侵图片的散列清单。

隐私担忧

尽管这样,一些隐私专家仍对此发声表示担忧。

美国约翰霍普金斯大学安全研究员格林表示,不论苹果的长远计划是什么,他们都发出了一个明确信号,即他们认为建立一个监测和扫描用户手机中违禁内容系统是安全的。

他还表示,至于最后结果是对还是错几乎无关紧要。关键是这将打开闸门 - 各国政府将会要求每个人都这样做。

相关专题:苹果,手机

推荐:美国打折网(21usDeal.com)    >>

        更多科技前沿 文章    >>

【郑重声明】倍可亲刊载此文不代表同意其说法或描述,仅为提供更多信息,也不构成任何投资或其他建议。转载需经倍可亲同意并注明出处。本网站有部分文章是由网友自由上传,对于此类文章本站仅提供交流平台,不为其版权负责;部分内容经社区和论坛转载,原作者未知,如果您发现本网站上有侵犯您的知识产权的文章,请及时与我们联络,我们会及时删除或更新作者。

关于本站 | 隐私政策 | 免责条款 | 版权声明 | 联络我们 | 刊登广告 | 转手机版 | APP下载

Copyright © 2001-2013 海外华人中文门户:倍可亲 (http://www.backchina.com) All Rights Reserved.

程序系统基于 Discuz! X3.1 商业版 优化 Discuz! © 2001-2013 Comsenz Inc. 更新:GMT+8, 2024-4-18 09:26

倍可亲服务器位于美国圣何塞、西雅图和达拉斯顶级数据中心,为更好服务全球网友特统一使用京港台时间

返回顶部