腾讯曝光新型AI攻击:“黑”掉神经网络,构造后门,最主流模型均不能幸免
发布时间:2020-08-25 19:26:23 所属栏目:点评 来源:网络整理
导读:模型看起来运行效果不错,但潜藏危机。 一旦攻击者扣动“扳机”,或是你踩到了模型里埋下的“地雷”,整个AI模型就崩溃了。 想象一下,AI监控被干扰,盗贼可以登堂入室;通过几句噪音,家用AI音箱就能被外人操控…… 最近,这种针对AI模型的新型“木马”攻
相较于数据投毒的方式,将“木马”植入AI模型的可操作性更高,更不容易被发现,而前者由于更依赖理想的实验环境,对模型本身、数据源头都需要较强把控。 事实上,神经网络“木马”在硬件方向上已有相关技术研究,但如果硬件木马改成动态设计,将可能产生非常大的危害。 目前,领域内正在研究这方面的安全防御建设,力求在多方计算、共享模型的场景下,在研发阶段就提前考虑对模型文件的保护。 不必过于担忧 当然,研究人员也表示,这种“木马”植入,可以通过“模型可信加载”进行规避。 也就是说,在每次加载模型前,通过交叉对比、数据校验来规避木马,有助于将安全理念贯穿整个流程,也能推动AI行业的安全水平提升。 不过,这些安全理念,开发者自己也要了然于心,最起码,可以通过两个方向来进行预防。 首先,从第三方渠道下载的模型,即便没有算力资源进行重新训练,也要保证渠道的安全性,这样,才能避免直接加载不确定来源的模型文件。 其次,对模型文件加载使用也要做到心中有数。如果攻击者需要一部分代码的配合才能完成攻击,那么开发者是可以从代码检测中发现漏洞的。 (编辑:通辽站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |
相关内容
- 三星Galaxy A51 5G亮相TENAA 采用Exynos 980 处理器和6400万
- [图]因存在感染高风险 富士康决定推迟2月10日复工计划
- 第10000台蔚来ES6下线 今年已累计交付8896辆
- 史上最简单618!京东红包雨每天撒10亿 连续18天
- Ubuntu 19.04“ Disco Dingo”将于本月结束支持
- [图]微软发布.NET Core卸载工具 Windows和macOS平台已上线
- 格力造假系竞争对手举报 事发一个月前
- 华为向所有品牌产品提供免费消毒服务
- 联合利华2020年将停止在Facebook、Twitter投放美国广告
- [图]Windows Update出现BUG:循环安装驱动程序