对抗模型 attack and defence

网友投稿 807 2022-09-06

对抗模型 attack and defence

对抗模型 attack and defence

motivation

想在脱离实验室,实际环境中使用 要做到: 强:要对噪音robust 对付来自人类的恶意:要对恶意的骗过机器的数据robust 侦测带有恶意的东西:垃圾邮件,恶意软件检测,网络侵入等

攻击

例子

在图片上加上特制的噪声,网络会得到不同的答案

如何找出特制的噪声

通常训练过程,最小化y‘和y_true间的距离

训练时:x是不变的,获得theta

攻击时,网络是不变的,固定theta,获得x’

没有目标的攻击:加上x‘,希望y’跟y_true越小越好

有目标的攻击:加上x‘,希望y’跟y_true越小越好,同时跟一个错误答案越近越好

额外的限制:x’和x越接近越好,不能被人发现

限制

如何定义distance

图中的例子表示,在使用l-infinity时,值越大,人眼的分辨更明显些

how to Attack

想法:像训练神经网络一样,但是不是最小化时的参数theta,而是x’

做法:gradient Descent,但是加上限制

。判断xt是否符合限制,如果不符合,那么要修正xt

修正方法:穷举x0附近的所有xt,用符合限制的xt来取代

修正算法的图形化表示如下图,如果xt跑出圈圈范围外了,就把它抓回来。

实例

使用一个猫,让它输出海星

分析两张图片的不同,很小,要乘以50倍才能看出

把猫变成键盘

是否是因为网络很弱呢?

随机加噪声,但是对结果的影响不大,加的噪声逐渐增大以后会有影响

到底是因为什么呢?

x0随机移动,多数时候,在该点附近,网络判断为tiger cat的confidence很高

对于在高维空间中的一个点,有某些神奇的方向会出现这种现象:只要稍微推一点,预测为某个不相干的东西的confidence就会很高。但是整个网络在其他方向上比较长,在某个特定的方向比较窄。

攻击方法

不同方法主要区别在不同的限制和不同的优化方法。

FGSM(Fast Gradient Sign Method)

FGSM一种非常简单的方法。只更新一次,一次攻击成功

具体的做法是先求gradient,然后更新x0,它并不在意gradient的值,只在乎方向。

它的原理等于给了一个非常大的learning rate,所以一次update就能跑出范围,然后把它拉回对应的角。

它还有一种进阶的方法,可以多次更新。

白盒和黑盒

在之前的攻击中,我们都知道theta,去寻找最有的x’。 为了攻击,需要知道网络的参数theta,这种就是白盒攻击。 如果我们不知道网络,就安全了吗? 并不是的,因为可以进行黑箱攻击。

黑盒攻击

如果你能够得到目标网络的训练数据

可以训练一个proxy network网络

然后利用proxy network网络得到攻击数据,再来攻击原网络,往往能够成功

所以应该保护好训练资料,但是即便没有训练资料,也有可能进行攻击。

只要丢大量的数据过去,获得输出的结果,也能进行黑箱攻击。

下表中表示黑箱攻击时,系统辨识的正确率。列表示用的proxy,行表示实际用的模型。数据越低,说明攻击效果越好。

衍生研究

Universal Adversarial Attack

之前提到的攻击,对于每个图片x,会有不同的噪声x‘进行攻击,有人提出了通用的噪声,可以让所有图片的辨识结果都出错。

这个也可以做黑箱。

Adversarial Reprogramming

有一个辨识鱼的网络,可以将它改造成数方块的网络,根据方块的不同进行输出。

加一噪声,就能变成别的网络

真实世界的攻击

有人做实验,把攻击的图像打印出来,然后用图片放在摄像头上进行攻击。证明这种攻击时可以在现实生活中做到的。

可以对人脸识别上进行攻击,把噪声变成眼镜,带着眼镜就可以实现攻击。

结果表示,可以被辨识成其他人。

在现实生活中需要做的以下几点。

其他方向的攻击

语音

文字

防御

有人说现在网络之所以会被攻击,是因为overfit,其实不然。通过regularization,dropout或者esemble时不能解决

两种类型

被动防御

不处理网络另外加一个防护罩,可以视为一种特殊的异常检测。

主动防御

主动攻击是在训练模型是就加上防御的思想。

被动防御

filter的一个例子:可以直接对图像进行平滑化。这种方法能够成功的原因,是改变了某个方向上突变的样子,但是不会改变图片的原意。

feature Squeeze

squeezer指的是不同的filter

比较这些输出,如果区别很大就有问题。

Randomization at Inference Phase

稍微做些改变,看输出是否会有变化

在model前面加盾牌的方法,如果filter被泄漏,仍然可能被攻击

主动防御

精神:训练network时把漏洞找出来,补好 给定训练资料,然后用训练集来训练模型 如何找漏洞呢? 训练T轮,找出每一个输入对应的的attack,然后把可以被attack成功的数据找出来,再把这些数据加上正确的label,当作新的资料,进行训练。 训练T轮是因为训练时参数会变,所以要找出新的漏洞,再补起来

如果你用A方法来找漏洞,但是被B方法攻击,可能仍然防不住

假设你的找漏洞的方法被泄漏出去,别人就可以不用这种方法,换一种方法攻击。

作者:​​你的雷哥​​

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:自学HarmonyOS应用开发(67)- 自定义布局(2)
下一篇:必须会的SQL语句(二) 创建表、修改表结构、删除表(sql中有几条语句,它们有哪些语法规则及使用方法)
相关文章

 发表评论

暂时没有评论,来抢沙发吧~