造假|打开正经图片,却看到一张黄图,这种造假方法能同时骗过AI和人眼( 二 )


经过处理的图像中,在后端,可以逃过AI对图片的审查;在前端,可以骗过收集数据集的人,污染AI训练数据集。
如果有人把这些图像掺进自动驾驶训练数据集,那么我们用训练出来的自动驾驶系统可靠吗?在这种情况下,汽车会不会发生意外?



造假|打开正经图片,却看到一张黄图,这种造假方法能同时骗过AI和人眼
文章插图

当然,这种方法并非不可预防。
既然问题出在图像压缩的滤波器上,那么我们只要选择合适的滤波器就能抵御攻击。
实验表明,中值滤波和随机滤波对非自适应攻击提供了有效的防御。



造假|打开正经图片,却看到一张黄图,这种造假方法能同时骗过AI和人眼
文章插图

具体到代码上,如果你在使用OpenCV,可以通过在调用resize API时使用interpolation参数来解决,而不要使用默认值。
TensorFlow 2.0依然容易受到攻击,双线性和双三次缩放对图像缩放攻击具有鲁棒性,可将参数antialias设置为true,但是此举会影响网络性能。
源代码:
https://github.com/EQuiw/2019-scalingattack
论文地址:
https://www.sec.cs.tu-bs.de/pubs/2020-sec.pdf
https://embracethered.com/blog/posts/2020/husky-ai-image-rescaling-attacks/
https://scaling-attacks.net/