摘要: abstract 后门攻击是针对 DNN 分类器的一种重要的对抗性威胁,当嵌入后门时,一个或多个测试样本将被(错误地)分类到攻击者的目标类中。本文关注文献中常见的 post-training 后门防御场景,其中防御者的目的是在没有任何访问训练集的情况下检测一个训练后的分类器是否受到了后门攻击。许多训 阅读全文
posted @ 2023-12-14 11:18 emo98 阅读(4) 评论(0) 推荐(0) 编辑
摘要: Abstract + introduction GNNs 很容易受到对抗性攻击,并且目前针对图的有效后门攻击仍然是一个有待解决的问题。 图神经网络后门攻击一般步骤: 通过将触发器和伪造标签附加到训练图数据中的某些节点来感染图数据 在感染的图数据上训练 GNN 若想要让 GNN 模型对图中的某个节点/ 阅读全文
posted @ 2023-09-21 10:36 emo98 阅读(320) 评论(0) 推荐(0) 编辑
摘要: Abstract + Introduction GNNs 大都遵循一个递归邻居聚合的方法,经过 k 次迭代聚合,一个节点所表征的特征向量能够捕捉到距离其 k-hop 邻域的邻居节点的特征,然后还可以通过 pooling 获取到整个图的表征(比如将所有节点的表征向量相加后用于表示一个图表征向量)。 关 阅读全文
posted @ 2023-05-18 11:29 emo98 阅读(1310) 评论(2) 推荐(0) 编辑
摘要: Abstract 随着互联网的发展,恶意代码攻击呈指数级增长,其中恶意代码变种被列为互联网安全的关键威胁之一。检测恶意代码变体的能力对于防范安全漏洞、数据窃取和其他危险至关重要。现有的方法里,恶意代码识别的检测精度低、速度慢。本文提出了一种利用深度学习来提高恶意代码变种检测的新方法。在之前的研究中, 阅读全文
posted @ 2023-03-16 13:26 emo98 阅读(327) 评论(0) 推荐(0) 编辑
摘要: abstract 在这项工作中,作者研究了卷积网络深度对其在大规模图像识别设置中的准确性的影响。其主要贡献是:使用非常小(3 × 3)卷积滤波器的架构,对更深的网络进行了全面评估,通过将网络的深度加深至16-19个权重层,可以实现对现有技术配置的显著改进。 这些发现是我们提交2014 ImageNe 阅读全文
posted @ 2023-03-04 12:57 emo98 阅读(30) 评论(0) 推荐(0) 编辑
摘要: Abstract 作者训练了一个大型的深度卷积神经网络,用于在 ImageNet LSVRC-2010 比赛中对120万张高分辨率图像分为1000个不同的类别。在测试数据上,作者们达到了 top-1 和 top-5 的 error rates,分别为37.5% 和 17.0%,相比起过去最先进技术要 阅读全文
posted @ 2023-03-03 18:28 emo98 阅读(33) 评论(0) 推荐(0) 编辑
摘要: 对于大多数深度学习模型,模型学到的表示都难以用人类可以理解的方式提取和呈现。但对于卷积神经网络来说,我们可以很容易第提取模型学习到的表示形式,并以此加深对卷积神经网络模型运作原理的理解。 这篇文章的内容参考了《python深度学习》的《卷积神经网络可视化》的内容,可以说是对其中内容的提炼,代码书中都 阅读全文
posted @ 2023-02-12 21:52 emo98 阅读(164) 评论(0) 推荐(0) 编辑