51Testing软件测试论坛

 找回密码
 (注-册)加入51Testing

QQ登录

只需一步,快速开始

微信登录,快人一步

手机号码,快捷登录

查看: 2367|回复: 1
打印 上一主题 下一主题

[IT新闻] 开发者发现苹果 CSAM 系统漏洞,可能导致哈希原像攻击

[复制链接]
  • TA的每日心情
    擦汗
    昨天 09:01
  • 签到天数: 1049 天

    连续签到: 2 天

    [LV.10]测试总司令

    跳转到指定楼层
    1#
    发表于 2021-8-20 10:18:17 | 只看该作者 回帖奖励 |正序浏览 |阅读模式
    据MacRumors 8月18日报道,苹果早前发布的用于检测iCloud照片中是否存在儿童色情图片(CSAM)的NeuralHash算法存在漏洞,可能被利用进行原像攻击。
      开发者Asuhariet Yvgar 在Reddit上表示,他发现了iOS 14.3中CSAM检测使用的苹果NeuralHash算法的一个版本,容易发生哈希碰撞,导致原像攻击。该攻击可能导致普通用户被诬陷持有儿童色情图片并招致苹果调查审核。
      同日,苹果回应媒体Motherboard称,在 iOS 14.3 中发现的 NeuralHash 版本并不是与 iOS 15 一起发布的最终版本。苹果还表示,它已将该算法公开以供安全研究人员验证,但还有第二个非公开算法将在用户超30张匹配阈值后开启检查以及人工验证。
      据了解,该算法是在隐藏的API中发现的,NeuralHash的容器被称为MobileNetV3。Asuhariet Yvgar对代码进行了逆向工程,并在Python中重建了一个工作模型,可以上传图像测试。目前,该代码和脚本已上传至GitHub供大家查证。
      利用这个工作的Python脚本,GitHub用户已经开始研究这个算法是如何工作的,以及它是否可以被滥用。
      一位名叫dxoigmn的用户发现,如果知道CSAM数据库中发现的结果哈希值,人们可以创建一个产生相同哈希值的假图像。理论上,一个用户可以将这些图片发送给随机的苹果用户,以触发该算法。
      目前还没有人发现iOS 15测试版中存在CSAM数据库或匹配算法。苹果也还没有提供CSAM检测功能的确切发布时间表。

    分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
    收藏收藏
    回复

    使用道具 举报

  • TA的每日心情
    奋斗
    4 小时前
  • 签到天数: 1804 天

    连续签到: 3 天

    [LV.Master]测试大本营

    2#
    发表于 2021-8-27 08:41:20 | 只看该作者
    这个算法的目标是好的
    回复 支持 反对

    使用道具 举报

    本版积分规则

    关闭

    站长推荐上一条 /1 下一条

    小黑屋|手机版|Archiver|51Testing软件测试网 ( 沪ICP备05003035号 关于我们

    GMT+8, 2024-11-20 15:04 , Processed in 0.062850 second(s), 23 queries .

    Powered by Discuz! X3.2

    © 2001-2024 Comsenz Inc.

    快速回复 返回顶部 返回列表