发布于2023-12-14

强网拟态坐牢记录

0x01 AI题

给出了一个yolov3模型及其训练数据集,模型定义等。分成两个题,用不同的方法攻击不同场景下的模型(包括单模型和拟态模型),使其识别失误。

0x001 对抗攻击

对抗攻击,要求在图片(416*416)上,添加一层补丁(只能修改3000个像素点),使模型识别失误(accuracy小于0.5)。

方法也挺简单,爬山就行(这里叫FGSM/FGM/PGD)看了几篇论文的实现糊了一个出来。

大概的操作方法是对单独的补丁层梯度下降,然后选择其中效果最好的前3000个像素点进行修改。

0x002 后门攻击

后门攻击,要求同样,在图片(416*416)上植入后门,在自己训练的模型上使模型识别失误(识别为直行)。

这个方法就是首先选一个后门,比如😈的表情添加到图片中(某个角落)然后训练即可。

这里我们可以对这个操作进行优化。自行实现训练算法,在每次抽样的图片中添加patch,并修改标签。另外可以在原始模型的基础上继续训练。同样能够得到对后门更准确的模型。

代码还没改好略了)

0x02 CTF题

这个似乎没什么好写的

做了一个misc题LSB隐写在A通道,是一串由Vegetable,Then,Pratice,Many组成的字符串,替换成00,01,10,11,而后binarytotext可以得到第一个字符串,也是这样一堆东西。再替换一次得到flag。

0x03 拟态

拟态x挖洞大赛✓

原来直接看linux版本交CVE编号就好了啊...亏我还传上去好几个poc

0x0? 后记

不太清楚评分是怎么评的导致我和elf老师同样在隐蔽性上死磕了很久。

按照后面的得分情况看的话,似乎隐蔽性和有效性都是有贡献的,有效性高了隐蔽性自然就低下来了,但是有效性高了的话对拟态模型的干扰就会大一些,所以如果磕在有效性上的话说不定分数还能更高(x