中国日报网8月19日电 8月5日,苹果公布新版手机操作系统,其中有一个监控儿童性虐待案件功能。此举可能会让父母和警方感到高兴,却让隐私监督机构感到担忧。
苹果表示,今年晚些时候,iPhone将开始使用复合技术标记用户上传到iCloud存储服务中的儿童性虐待图片,即通常所谓的“儿童色情图片”。它还表示,将很快让父母开启一项功能,当他们的孩子在短信中发送或接收裸体照片时,会加以标记。
苹果称设计了一些新功能,会保护用户隐私,包括确保苹果永远不看到或发现儿童在短信中交换的裸体图像。扫描行为是在孩子的设备里进行,而通知只发送给父母的设备。在苹果援引一些网络安全专家和儿童安全组织的积极评价中,他们赞同苹果的这种做法。
一些网络安全专家仍表示担忧。约翰霍普金斯大学的密码学教授马修·格林(Matthew D. Green)称,苹果的这些新功能开创了一个危险的先例,执法部门或政府可能会滥用这项监控技术。
“他们一直在向世界兜售隐私,让人们信任他们的设备。”格林说道。“现在他们基本上只在每个政府最坏的要求前让步。我不知道他们从现在开始还要如何做出拒绝。”
苹果采取这些措施是在《纽约时报》2019年的一项调查之后做出的。调查揭示了一个全球性的犯罪团伙利用监管漏洞和措施不利,引起儿童性虐待图像大面积出现。调查发现,许多科技企业未能充分监管自家的平台,让此类内容的数量大幅增加。
虽然这些图像在互联网出现之前就已存在,但智能手机摄像头和云存储等技术使这一类图像更广泛地传播。一些图像流传多年,继续对图像中的人造成创伤和困扰。
不过,人们苹果的新功能褒贬不一,表明了技术企业必须在协助公共安全和确保客户隐私之间明确界限。执法官员多年来一直抱怨,智能手机加密等技术阻碍了刑事调查工作,而技术高管和网络安全专家则认为,这种加密对保护人们的数据和隐私至关重要。
在5日发布的公告中,苹果试图在这个界限间搭起桥梁。它声称创造了一种方法,帮助根除儿童侵犯者,不会危害iPhone的安全。
苹果称,为了捕捉上传到iCloud的儿童性虐待材料,iPhone将使用图像散列技术,将一张照片归结为一组独特的数字——一种图像指纹。
iPhone操作系统会很快存储一个由国家失踪与受剥削儿童中心等组织提供的已知儿童性虐待材料的哈希值数据库,将这些哈希值与用户iCloud中每张照片的哈希值进行比对,看是否存在匹配。
一旦有一定数量的匹配,照片将展示给一名苹果员工,以确保它们确实是儿童性虐待的图像。如果符合,图像将转发给国家失踪与受剥削儿童中心并锁定用户的iCloud账户。
苹果表示,这种做法让苹果或当局看不到手机上没有儿童性虐待材料的人。
“如果你储存的是儿童性虐待的材料,是的,这对你很不利,”苹果的隐私主官埃里克·纽恩施万德(Erik Neuenschwander)说。"但对其他人来说,这没有什么不同。"
犯罪者多年来一直使用视频格式,但苹果的系统却不会扫描上传到iCloud的视频。2019年,向全国中心举报的视频数量首次超过了照片数量。该中心经常收到关于同一内容的多个举报。
美国法律要求科技企业向当局举报儿童性虐待案件。苹果历来比其他企业提出的数量要少。例如,根据国家失踪与受剥削儿童中心的统计数据,2020年苹果向该中心报告了265起案件,而Facebook报告了2030万起。这一巨大差距的原因之一是苹果以用户隐私为由,决定不扫描这类材料。
苹果的另一项功能是扫描短信中的照片,将只对拥有苹果iCloud联合账户的家庭开放。如果父母开启该功能,他们孩子的iPhone将会分析每一张短信里收到或发出的照片,确定是否包含裸体内容。发送给孩子的裸体照片会模糊化处理,而孩子必须选择是否查看。如果13岁以下的儿童选择查看或发送裸体照片,这一行为将会通知他们的父母。
格林担心这一类系统会遭到滥用,因为它向执法部门和政府表明,苹果现在有办法在保持手机加密的同时标记某些内容。苹果此前曾向当局辩解,声称加密技术使其无法检索某些数据。
“如果其他政府要求苹果将其用于其他目的,会发生什么?”格林问道。“苹果还打算怎么说?”
纽恩施万德否认了这些担忧,称苹果采取了保护措施,防止系统被滥用,而且苹果将拒绝政府此类的任何要求。
“我们会告诉他们,我们没有做出他们想要的东西,”他说。
加州大学伯克利分校(University of California, Berkeley)的计算机科学教授哈尼法里德(Hany Farid)帮助开发了早期的图像哈希技术。他表示,与孩子们的安全相比,苹果的做法中可能存在的风险都是值得的。
他说:“如果合理的保障措施到位,我认为好处会大于坏处。”
(编译:朱恩慧 编辑:王旭泉)