首页 > 科学探索

百度安全与学术界共建AI时代

2019-01-25 11:40:34 作者:迷迷

在最近的黑帽欧洲2018年,百度安全感知欺骗:基于深层神经网络(DNN)的物理对抗攻击和策略研究报告被成功选中。本文报告了人工智能时代百度安全在机器学习算法安全领域的研究与实践,展示了人工智能时代深层学习系统中对象的消失,以及魏科波菲尔经典魔法的重现。将ning模型脆弱性引入物理攻击的可行性研究,这一领域的研究具有广泛的途径,在驾驶、智能安全、物品自动识别等领域具有重要的现实意义。对人工智能感知系统的研究更加迫切,并共同探索和建设安全人工智能时代。  

BlackHat是国际安全行业顶级会议之一,影响广泛。BlackHat每年在美国、欧洲和亚洲举行安全信息技术峰会,重点关注先进的安全研究、发展和趋势,以其强大的技术优势引领未来的安全理念和技术。近年来,百度安全多次登上BlackHat舞台,分享人工智能安全和移动安全领域的研究和实践成果。  

机器学习容易受到对样本的攻击,这在工业中并不新鲜。如果图像数据叠加类很难被感觉器官识别,那么它可以欺骗机器学习模型做出错误的分类决策,参照马,甚至什么都不做。工业界称这种微妙的干扰影响效果。AI决策边界对抗示例攻击,一个典型的场景。假设恶意攻击者通过篡改数据生成对策样本,使得机器学习模型能够判断输入数据的输出误差,进而进行人脸识别、驾驶等领域,从而破坏整个智能状态的处理过程和基本信任。  

blob.png

在报告中,郑宇中波介绍了模型安全性和可靠性的重要性,以及目前基于视觉感知的目标识别所依赖的深度学习模型中的漏洞。图像通过与原始图像重叠,但YOLOv3会失去对车辆的正常识别。  

然而,这种攻击需要对输入图进行精确的位级控制。在现实世界中,这种对深层神经网络的精确数据输入进行篡改以实现机器学习误差分类是否仍然可以实现,一直是业界争论的焦点。在物理世界中,对策样本是机器识别领域的一个现实威胁。针对机器学习模型漏洞的物理攻击可行性研究是BlackHat之前的第一个案例。攻击者篡改数据传输和数据处理环节,只允许对目标对象进行图像粘贴,使深层学习感知系统误判。  

值得指出的是,原有理论的准确数据篡改可以达到完美的欺骗攻击效果,在实际物理环境的限制下,经常丢失。2)进入技术研究,从而克服了物理环境变化对攻击的影响,现场成功复制了前卫科波菲尔神奇的瞬间,让自由女神像消失,显示出物理攻击对车辆机器识别的影响。  

如图3所示,在时刻t0,当正常标志显示在后方显示器中时,YOLOv3可以正确地识别被标记的车辆。在时刻t1,当切换到受扰图时,它能使标记的车辆在YOLOv3之前变得可识别。在时刻t2,当切换回正常图形时,YOLOv3可以再次识别被标记的车辆。然后,百度安全科学家进一步演示了动态情况(多度、不同距离,如图4所示)中的物理攻击。从t0到t2,摄像机经历了从远到近,从左到右的转变。在此期间,车后显示的干扰图保持不变。在大多数情况下,使用YOLOv3方法通过攻击扰动样本来识别目标车辆。这是对vehi物理攻击的第一次成功演示。克勒斯。与以往的学术章节相比,在攻击效果的大小、分辨率以及物理环境对攻击效果的影响和难度上都有了新的改进。  

智能化不仅拓宽了传统产业结构的框架,而且重塑了安全防范的边界。传统的安全防御已经能够应对新时代的挑战,百度安全研究证明,智能时代不仅要解决云管的安全问题,而且机器学习算法本身也存在安全漏洞,这才是真正的威胁。对于主体层和公共安全层,企业需要提高AI模型的安全保护能量和效率。NSE,等等。  

此外,百度安全一贯主张通过新一代技术研发和开放源码来快速应对和对抗安全问题。百度安全实验室AdvBox对策示例包为AI算法模型提供了安全研究和解决方案。它应该在百度深层学习开放源码平台平台平台和当前主流的深层学习平台中,能够有效地使最新的方法构建对峙。样本数据集是基于对样本的特征统计,攻击新的AI响应,增强业务AI模型,为模式提供重要支持。1安全研究,应提供。  

包括AdvBox,百度安全今年将创建的七项技术,即KARMA热修复系统、OpenRASP下一代云安全保护系统、MesaLockLinux内存安全操作系统、MesaLinkTLS下一代安全通信库、MesaTEE下一代可信安全计算服务、HugeGra。ph比例尺地图数据库、开源会聚成七大武器解决了云管末端问题,以及数据和算法层中的一系列安全风险,实现了从传统安全时代的强管理向AI时代强技术支持的核管理的转变,并且无穷无尽且日益复杂。将充分解决人工智能时代的国家安全问题和挑战。  


上一篇: 英特尔中国研究院突破计算创新,共赢数据未来
下一篇: 宝马5系插混电驱无忧、充电便利
相关推荐