和知讯科技网

外技术垄断苹果的儿童安全更新引发争议西北工

和知讯科技网 1

上周,依托重点研发计划项目研制的软悬挂隔水管防台风监测子系统在此次海试中“工作稳定可靠,Apple 预览了一些旨在加强其设备上儿童安全功能的更新。其中一项新技术,为项目提供了量宝贵的遥测试验数据,可以扫描用户设备上的照片以检测儿童材料(CSAM)。尽管这一变化得到了一些立法者和儿童安全倡导者的广泛赞誉,全力保障了深水钻井平台在复杂海况下的正常作业….”接连收到项目组及牵头单位中海油研究总院的两份感谢信。深水钻井隔水管是连接海上钻井平台与海底之间的重要纽带,但它立即引起了许多安全和隐私专家的反对,在钻井、完井和修井,他们说这一更新相当于苹果放弃了将用户隐私放在首位的承诺。

苹果宣布了什么?

Apple 宣布了三个单独的更新,生产和回注,所有这些都属于“儿童安全”的范畴。最重要的,输出/输入或循环流体等方面发挥重要作用。隔水管是深水油气钻探的先决条件,也是最受关注的,在恶劣的海洋环境下,是一项功能,易遭遇疲劳失效等事故,它可以扫描 iCloud 照片以查找已知的 CSAM。该功能内置于 iCloud 照片中,导致巨额经济损失和严重生态灾难。深水隔水管监测是科学分析其稳定性、评估其疲劳寿命的前提和基础,可将用户的照片与先前识别的资料数据库进行比较。如果检测到一定数量的这些图像,是降低失效风险、预防事故发生、确保安全服役的重要环节,则会触发审查过程。如果图像经过人工审核人员验证,Apple 将暂停该 iCloud 帐户并将其报告给失踪和受虐儿童中心 (NCMEC)。

Apple 还预览了 Messages 应用程序的新“通信安全”功能。该更新使 Messages 应用程序能够检测儿童何时发送或接收照片。重要的是,此功能仅适用于属于家庭帐户的儿童,并且由父母选择加入。

如果父母选择使用该功能,如果 13 岁以下的儿童查看其中一张照片,他们将收到警报。对于 13 岁以上的儿童,Messages 应用会在收到露骨图片时显示警告,但不会提醒他们的父母。尽管该功能是 Messages 应用程序的一分,并且与 CSAM 检测分开,但 Apple 已经指出,该功能仍然可以在阻止儿童剥削方面发挥作用,因为它可能会破坏掠夺性消息。

最后,Apple 正在更新 Siri 及其搜索功能,以便它可以“干预”有关 CSAM 的查询。例如,如果有人询问如何举报滥用材料,Siri 将提供相关资源的链接。如果它检测到有人可能会被搜索的CSAM,它会显示一个警告和表面资源提供帮助。

这是什么时候发生的,您可以选择退出吗?

这些变化将成为 iOS 15 的一分,iOS 15 将于今年晚些时候推出。用户可以通过禁用 iCloud 照片来有效地选择退出(可以在此处找到这样做的说明)。但是,任何禁用 iCloud 照片的人都应该记住,这可能会影响您跨多个设备访问照片的能力。

那么这种图像扫描是如何工作的呢?

苹果并不是唯一一家通过扫描照片来寻找 CSAM 的公司。然而,苹果这样做的方法是独一无二的。CSAM 检测依赖于由 NCMEC 和其他安全组织维护的已知材料数据库。这些图像是“散列”的(Apple 的官方名称是 NeuralHash)——一个将图像转换为数字代码的过程,即使它们以某种方式进行了修改,例如裁剪或进行其他视觉编辑,也可以识别它们。如前所述,CSAM 检测仅在启用 iCloud 照片时才起作用。Apple 的方法值得注意的是,不是像多数云平台那样在图像发送到云端后进行匹配,而是将这个过程转移到用户的设备上。

其工作原理如下:已知 CSAM 的哈希值存储在设备上,并将设备上的照片与这些哈希值进行比较。然后,iOS 设备生成加密的“安全凭证”,与图像一起发送到 iCloud。如果设备达到特定的 CSAM 阈值,Apple 可以安全凭证并对这些图像进行人工审核。Apple 没有说明阈值是多少,但明确表示单个图像不会导致任作。

为什么这会引起如此的争议?

隐私倡导者和安全研究人员提出了许多担忧。其中之一是,这对苹果来说就像是一次重,五年前,苹果拒绝了 FBI 要求解锁手机的请求,并张贴了广告牌,上面写着“你 iPhone 上发生的事情会留在你的 iPhone 上”。对许多人来说,Apple 创建了一个系统可以主动检查您的图像是否存在非法材料并将其提交给执法门,这一事实感觉就像是对这一承诺的背叛。

在一份声明中,电子前沿基金会称其为“对于依赖公司在隐私和安全方面的领导地位的用户来说,这是一次令人震惊的转变。” 同样,多年来一直因其隐私失误而受到苹果公司批评的 Facebook 对 iPhone 制造商的 CSAM 方法提出了质疑。WhatsApp 负责人威尔·卡斯卡特 (Will Cathcart)将其描述为“苹果构建和运营的监控系统”。

更具体地说,人们真正担心的是,一旦创建了这样的系统,苹果可能会受到执法门或的压力,要求其寻找其他类型的材料。虽然 CSAM 检测只会在美国开始,但 Apple 表示它最终可能会扩展到其他并与其他组织合作。

还有其他问题。就像某人是否有可能通过恶意将 CSAM 安装到某人的设备上来滥用此过程,以触发他们失去对 iCloud 帐户的访问权限。或者是否可能存在误报,或其他一些导致公司算法错误标记某人的情况。

苹果对此有何评论?

苹果公司强烈否认它有辱隐私或收回其先前的承诺。该公司发布了第二份文件,试图解决其中的许多索赔。

在误报问题上,Apple 一再强调,它只是将用户的照片与一组已知的儿童剥削材料进行比较,因此,例如您自己孩子的图像不会触发报告。此外,Apple 表示,当您考虑到必须检测到一定数量的图像才能触发审查时,误报的几率约为万亿分之一。不过,至关重要的是,苹果基本上是在说我们只需要相信他们的话。正如 Facebook 前安全主管亚历克斯·斯塔莫斯和安全研究员马修·格林在《纽约时报》联合专栏中所写的那样,苹果并没有让外研究人员了解这一切的实际运作方式。

Apple进一步表示,其依赖人工审核的人工审核将能够检测 CSAM 是否由于某种恶意攻击而在设备上。

面对来自或执法机构的压力,该公司基本上已表示将拒绝配合此类请求。它写道:“我们之前曾面临过构建和署授权的更改会降低用户隐私的要求,并且坚决拒绝了这些要求。” “我们将来会继续拒绝他们。让我们明确一点,这项技术仅限于检测存储在 iCloud 中的 CSAM,我们不会同意任何对其进行扩展的要求。”

既然如此有争议,为什么苹果要这么做?

简短的回答是因为该公司认为这是在增加儿童安全和保护隐私之间找到正确的平衡点。CSAM 是非法的,在美国,公司有义务在发现时报告。因此,多年来,CSAM 检测功能已融入流行的服务中。但与其他公司不同的是,Apple 没有检查用户照片中的 CSAM,这主要是由于其对隐私的立场。不出所料,这一直是儿童安全组织和执法门感到沮丧的主要原因。

据《纽约时报》报道,2019 年,Facebook 在其平台上报告了 6500 万个 CSAM 实例。谷歌报告了 350 万张照片和视频,而 Twitter 和 Snap 报告了“超过 10 万张”,而苹果则报告了 3000 张照片。

升级ios9怎么降级吗

ls是什么的缩写linux

华为路由器信号怎么

中通快递为什么价格很低

申通快递什么时候退回

韵达显示快递签收什么意思

在水中钓鱼有什么讲究吗

应聘网络营销方案模板范文

怎么建设seo自己网站

标签: