对抗性攻击的原理简介
来源:Deephub Imba 本文约2200字,建议阅读5分钟
本文介绍了对抗性攻击的原理。
由于机器学习算法的输入形式是一种数值型向量(numeric vectors),所以攻击者就会通过设计一种有针对性的数值型向量从而让机器学习模型做出误判,这便被称为对抗性攻击。和其他攻击不同,对抗性攻击主要发生在构造对抗性数据的时候,该对抗性数据就如正常数据一样输入机器学习模型并得到欺骗的识别结果。
什么是对抗样本?
![](https://filescdn.proginn.com/42f8c0dee34d2d5987eb70bf65ebd721/771e1a5bdd4d50c5696ddccc0a9f7bfb.webp)
![](https://filescdn.proginn.com/7d8e0422befa654736bd0e4123875f8b/ff6ab282df9bde8aa794c98b41a3a75d.webp)
为什么会发生对抗性攻击?
![](https://filescdn.proginn.com/16c3181fd68f4731fba4e5154d40095b/a95b0ab8e33bb731848a277685d21959.webp)
![](https://filescdn.proginn.com/ba78817e6d6faed4da72e898184fe755/487012df2b6c8dbd8971a48b6fdae2b8.webp)
它们如何被用来破坏机器学习系统?
![](https://filescdn.proginn.com/e644ad326a8846637ddd45c4c7b163dc/8753c99f80cfa5b77ad5fb7aca5f027a.webp)
有哪些防御措施?
![](https://filescdn.proginn.com/d0494e01bd07a1eb324b7f77847764f7/2715cddd7e75db9085d5792462a7531a.webp)
![](https://filescdn.proginn.com/bf0efe16279b006b3245ba93f0722aaa/b57c3c75c28da44b1afe756286fcd585.webp)
![](https://filescdn.proginn.com/532c8ec2a56dee48c9485c536451755d/051831286750edeeb694c2c25e575b34.webp)
![](https://filescdn.proginn.com/07b73d6a906b2dc23cd979806f93f380/d582d2425b865096215d335354c02acb.webp)
![](https://filescdn.proginn.com/57d72bf64de954dc432a6a9e372ecd2a/8b7e5ac4fc797ee144ec9e44b8a7236d.webp)
线性模型:支持向量机/线性回归不能学习阶跃函数,所以对抗训练的用处不大,作用非常类似于权值衰减 k-NN:对抗训练容易过度拟合。
结论
神经网络实际上可以变得比其他模型更安全。对抗性训练的神经网络在任何机器学习模型的对抗性示例上都具有最佳的经验成功率。 对抗训练提供正则化和半监督学习 进攻很简单 防守很困难
编辑:王菁
校对:林亦霖
评论