随笔分类 -  深度学习

摘要:Ⅰ。如何在Colab中导入自定义的包 Colab上编写的代码会被默认放在Colab NoteBooks文件夹下,在这个文件夹下,上传了d2lzh_pytorch包为后续调用。 需要在开头写入如下代码 import sys from google.colab import drive drive.mo 阅读全文
posted @ 2020-10-06 18:36 Cindy's 阅读(2207) 评论(0) 推荐(0)
摘要:概括: 简而言之: validation set,是有标注,用于验证的 test set,是没有标注的 正文: 感谢! 在有监督的机器学习中,经常会说到训练集(train)、验证集(validation)和测试集(test),这三个集合的区分可能会让人糊涂,特别是,有些读者搞不清楚验证集和测试集有什 阅读全文
posted @ 2020-09-24 22:51 Cindy's 阅读(6550) 评论(0) 推荐(1)
摘要:https://www.jianshu.com/p/a42d69568966 感谢谷歌爸爸让没钱的我也可以快乐T4 阅读全文
posted @ 2020-09-04 23:40 Cindy's 阅读(211) 评论(0) 推荐(0)
摘要:一文弄懂Pytorch的DataLoader, DataSet, Sampler之间的关系 https://www.cnblogs.com/marsggbo/p/11308889.html Pytorch Sampler详解 https://www.cnblogs.com/marsggbo/p/11 阅读全文
posted @ 2020-08-16 23:46 Cindy's 阅读(225) 评论(0) 推荐(0)
摘要:在机器学习中,我们通常将原始数据按照比例分割为“测试集”和“训练集”,从 sklearn.model_selection 中调用train_test_split 函数 简单用法如下: X_train,X_test, y_train, y_test =sklearn.model_selection.t 阅读全文
posted @ 2020-08-16 23:29 Cindy's 阅读(4690) 评论(1) 推荐(0)
摘要:笔记来源 我们在做模型的时候,通常会碰到两个数据集:测试数据集(Test Set) 和验证数据集 (Validation Set) 。那么他之间有何区别呢?下面有个简单的解释: 训练数据集(Training Set): 是一些我们已经知道输入和输出的数据集训练机器去学习,通过拟合去寻找模型的初始参数 阅读全文
posted @ 2020-08-16 23:01 Cindy's 阅读(3580) 评论(0) 推荐(0)
摘要:上次开会,被当众处刑说我的resnet34 epoch15时不收敛 于是想要深究到底什么是不收敛? 理解 打个简单的比方,训练网络,就好比解方程,为了得到这个方程的极值点,训练的过程就好比是找准一个方向,不断的朝这个方向靠近,使得方程的值不断减小,最终达到极值点,而不收敛,就是,不论你怎么跑,方程的 阅读全文
posted @ 2020-08-10 17:19 Cindy's 阅读(5635) 评论(0) 推荐(1)
摘要:1.mixup原理介绍 mixup 论文地址 mixup是一种非常规的数据增强方法,一个和数据无关的简单数据增强原则,其以线性插值的方式来构建新的训练样本和标签。最终对标签的处理如下公式所示,这很简单但对于增强策略来说又很不一般。 ,两个数据对是原始数据集中的训练样本对(训练样本和其对应的标签)。其 阅读全文
posted @ 2020-08-09 23:51 Cindy's 阅读(1174) 评论(0) 推荐(0)
摘要:validation_data用来在每个epoch之后,或者每几个epoch,验证一次验证集,用来及早发现问题,比如过拟合,或者超参数设置有问题。 这样可以方便我们及时调整参数 针对超参的选择我们是根据验证集上的效果来进行调整的,因此验证集可以看做参与到“人工调参”的训练过程; 2)注意训练集、验证 阅读全文
posted @ 2020-08-09 23:03 Cindy's 阅读(597) 评论(0) 推荐(0)
摘要:为了完成实验室的论文,先拜读了大神的代码,但是初入dl界,对于a[:,0] 看不懂什么意思 查了很久都没有直接的资料,后面翻书查了好久才查到! import numpy a = numpy.array([[10,20,30],[40,50,60]]) #b表示a这个2维数组里面1维数组的第1个元素, 阅读全文
posted @ 2020-08-02 23:55 Cindy's 阅读(1378) 评论(0) 推荐(0)