摘要: 1.Clone远程仓库: 如:git clone git@gitlab.engr.illinois.edu:xuhongh2/test2.git 2.创建分支 每个人在自己电脑上创建一个分支(建议我们直接用自己名字或者netID): 如:git checkout -b xuhongh2 这样就建立并 阅读全文
posted @ 2023-10-13 12:26 Ho- 阅读(23) 评论(0) 推荐(0)
摘要: Working Content: 1. 这几天找到了提取attention层的代码,并且可以实现可视化:https://github.com/luo3300612/Visualizer 效果图大概是这样: 用这段代码调用函数,attention_maps[3][0,4,:,:]指的是第3层atten 阅读全文
posted @ 2023-07-04 10:30 Ho- 阅读(14) 评论(0) 推荐(0)
摘要: Working Content: 1. 今天开始看Vision Transformer(ViT): 看之前需要一些基础: (1)RNN(Recurrent NN,循环神经网络): 一段连续的信息,前后信息之间是有关系地,必须将不同时刻的信息放在一起理解。如果是普通的神经网络,每个输入之间是相互独立的 阅读全文
posted @ 2023-06-27 20:27 Ho- 阅读(12) 评论(0) 推荐(0)
摘要: Working Content: 1.把resnet18的backdoor和IL尝试结合了一下,得到的结果如下: 在训练完第一个任务后(干净的数据集),错误率为28.29%;训练完第二个任务后(污染的数据集),错误率为28.50%,攻击失败率为85.33%。 这里攻击的成功率太低了,不太清楚为什么, 阅读全文
posted @ 2023-06-19 19:44 Ho- 阅读(18) 评论(0) 推荐(0)
摘要: Working Content: 1. 今天还是读代码,对于代码有以下问题:(1)FCNet最后的输出层只有1个神经元,这如何做分类?——解决了,应该是因为它每个子任务都是训练两类,所以只需要一个神经元确定是哪个类别。(2)CIFAR数据集的分任务是什么情况?既使用了CIFAR10也使用了CIFAR 阅读全文
posted @ 2023-06-18 10:53 Ho- 阅读(4) 评论(0) 推荐(0)
摘要: Working Content: 1. 学到的关于VCL方法的几个点: (1)最小化 KL 散度 = 最大化 ELBO(Evidence Lower Bound)。tyxe的源代码应该用的就是最大化ELBO,这里loss是由关于ELBO的函数得到的(具体怎么得到的不太知道)。 (2)源代码用了Pyr 阅读全文
posted @ 2023-06-17 12:17 Ho- 阅读(11) 评论(0) 推荐(0)
摘要: Working Content: 1. 上次的问题得到解决:(1)数据集就是8个文件夹,代表八个类别(忽略注释说的四个类),databloader会为他们分配labels。(2)incremental learning和backdoor结合是将干净的数据集和被污染的数据集两个任务分别训练。 2. 基 阅读全文
posted @ 2023-06-16 15:59 Ho- 阅读(5) 评论(0) 推荐(0)
摘要: Working Content: 1. 目前要做的任务是将classifier_resnet18.py用的方法做一些改动,原来是训练一个被污染的数据集,然后用干净的测试集去测试正常数据的识别成功率和污染数据的攻击成功率。比如某种dog属于dog类,我现在找了个trigger(比如加了个黑方格到dog 阅读全文
posted @ 2023-06-10 20:27 Ho- 阅读(15) 评论(0) 推荐(0)
摘要: Working Content: 1. 阅读"Variational Continual Learning"论文及代码 关于Continual Learning(CL)的认识:这是一个贝叶斯推断过程,这里是gpt给出的贝叶斯推断概念和例子: 即先确定一个先验分布,需要求的未知参数是θ(当然也可以添加 阅读全文
posted @ 2023-06-08 10:35 Ho- 阅读(28) 评论(0) 推荐(0)
摘要: Working Content: 1. 第一个是参数1,第二个是噪声1,第三个是参数2,第四个是噪声2 如果没加噪声(以下情况),所以照理来说噪声1和噪声2的量级应该分别比参数1和参数2小得多,现在看第一个参数和噪声还比较正常,第二个参数和噪声就很不正常 2. 如果加了噪声,结果就变得很差,所以没有 阅读全文
posted @ 2023-03-01 19:50 Ho- 阅读(22) 评论(0) 推荐(0)