4000多家组织和个人签署公开信 敦促苹果放弃“儿童安全”功能

腾讯科技讯 苹果计划根据儿童性虐待材料数据库(CSAM)扫描用户的iCloud照片库,以寻找匹配的内容和儿童信息,帮助加强对儿童安全和隐私的保护。然而,这个计划却遭到4000多家组织和个人的联合反对,包括电子前沿基金会(EFF)、民主与技术中心(CDT)等组织以及爱德华·斯诺登(Edward Snowden)等隐私倡导者。他们已经签署公开信,敦促苹果放弃“儿童安全”功能。

在一系列推文中,著名隐私活动家和告密者斯诺登强调了人们的担忧,即苹果正在向全世界推出一种大规模的监控形式,并开创了一个先例,可能会允许苹果在未来扫描任何其他任意内容。斯诺登写道:“不管用意有多好,苹果都在通过这种方式向全世界输出大规模监控。别搞错了:如果他们今天可以扫描儿童色情内容,那么明天就可以扫描任何东西。他们毫无征兆地将价值1万亿美元的设备变成了监控设施。”

斯诺登还指出,在数字隐私方面,苹果历来是行业领先者,甚至拒绝解锁2015年12月加州圣贝纳迪诺袭击案的枪手赛义德·法鲁克(Syed Farook)的iPhone。此前,美国联邦调查局和联邦法官都曾要求苹果解锁该手机,但苹果坚决反对这一命令,指出这将开创一个“危险的先例”。

除了斯诺登,还有4000多家组织、安全与隐私专家、密码学家、研究人员、教授、法律专家以及苹果消费者公开反对苹果的举措,他们签署的公开信全文如下:

2021年8月5日,苹果宣布将推出新的技术措施,旨在“扩大对儿童的保护”,该措施将适用于几乎所有苹果设备。虽然虐待儿童是个非常严重的问题,而且打击这个问题的努力几乎毫无疑问是出于好意,但苹果的提议事实上相当于引入了“后门”,可能会破坏苹果产品所有用户的基本隐私保护。

苹果提出的这项技术措施是通过持续监控用户在iPhone、iPad或Mac上保存或分享的照片来实现的。一个系统会检测iCloud存储中是否会有一定数量的不良照片,并向相关机构发出警报。另一种方法是,如果用iMessage发送或接收机器学习算法认为含有裸体的照片,它就会通知孩子的父母。由于这两种检测都是在用户的设备上执行的,所以它们有可能绕过任何保护用户隐私的端到端加密机制。

在苹果宣布这一举措后,世界各地的专家立即发出警告,称苹果提出的措施可能会让每部iPhone都变成一台监控设备,不断扫描通过它的所有照片和信息,以便向执法部门报告任何令人反感的内容。这可能会开创一个先例,让我们的个人设备成为侵入性监控的全新工具,而几乎没有监管来防止最终的滥用和监控范围的不合理扩大。

电子前沿基金会(EFF)表示:“苹果正在为更广泛的滥用打开大门”。该机构称:“我们不可能建立一个客户端扫描系统,只用于儿童发送或接收色情图片。因此,即使是出于善意的努力来建立这样的系统,也会打破加密本身的关键承诺,为更广泛的滥用打开大门。这不是滑坡效应,而是完整的系统,只会在外部压力下做出最微小的改变。”

民主与技术中心(CDT)表示,它“非常担心苹果的变化实际上会给儿童和所有用户带来新的风险,这标志着苹果背离了长期以来的隐私和安全协议”。CDT安全与监控项目联合主管格雷格·诺杰姆(Greg Nojeim)说:“苹果正在用监控和审查基础设施取代其行业标准的端到端加密消息系统,这不仅在美国,而且在世界各地都很容易被滥用和扩大范围。苹果应该放弃这些改变,恢复用户对苹果设备和服务上数据安全性和完整性的信心。”

安全与隐私领域的知名专家、瑞士洛桑联邦理工学院教授卡梅拉·特隆科索博士(Dr. Carmela Troncoso)表示,尽管“苹果儿童性虐待材料数据库(CSAM)是以促进儿童隐私和安全保护的名义推广的,但其实际上是朝着普遍监控和控制的方向迈出了一大步”。

另一位安全与隐私领域的知名研究专家、约翰霍普金斯大学教授马修·格林博士(Matthew D.Green)也说:“此前,我们正逐渐走向这样一个未来,即我们的信息越来越少地受到除我们自己以外的任何人的控制和审查。自上世纪90年代以来,我们第一次收回了对隐私的控制。然而,今天我们又走上了一条不同的道路。”

开放隐私研究协会(Open Privacy Research Society)的执行董事莎拉·杰米·刘易斯(Sarah Jamie Lewis)警告说:“如果苹果成功地引入了这一技术,你认为还要多久其他供应商才会效仿?在‘围墙花园’禁止不这样做的应用之前?还是在它被载入法律之前?你认为数据库需要多长时间才能扩展到包括“恐怖主义”内容或有害但合法的内容?”

安全与隐私问题研究员纳迪姆·科比西博士(Nadim Kobeissi)警告说:“苹果在沙特销售不带FaceTime功能的iPhone,因为当地法规禁止加密通话。这只是苹果屈服于当地法规的众多例子之一。如果沙特的地方法规要求扫描的信息与虐待儿童有关,而是同性恋或违反君主制的行为,会发生什么?”

专家们还指出了苹果提出的方法存在的基本设计缺陷,他们声称“苹果可以为每个用户使用不同的媒体指纹数据集。对一个用户来说,它可能涉及虐待儿童,对另一个用户来说,它可能涉及更广泛的类别,从而使针对目标用户的选择性内容跟踪成为可能。”

苹果为其儿童保护措施提出的技术措施依赖于一个不能被监控或技术限制的可扩展基础设施。专家们一再警告说,问题不仅在于隐私,还在于缺乏问责制、技术障碍以及对可能出现的错误缺乏分析等。哈佛法学院网络法律诊所(Cyberlaw Clinic)的律师肯德拉·阿尔伯特(Kendra Albert)警告称,这些“儿童保护”功能会让同性恋儿童被赶出家门、遭到殴打,甚至面临更糟的困境。

我们要求:

——苹果立即停止尝试部署所提议的内容监控技术;

——苹果应发表声明,重申他们对端到端加密和用户隐私的承诺;

——苹果目前的做法可能会破坏技术专家、学者和政策倡导者数十年来的工作,这些人始终希望,在大多数消费电子设备和使用案例中,让强有力的隐私保护措施成为常态。我们要求苹果重新考虑实施其新措施,以免毁掉上述努力成果。(腾讯科技审校/金鹿)