上一页 1 ··· 16 17 18 19 20 21 22 23 24 ··· 30 下一页
摘要: GPU vs CPU GPU: 核心数: GPU比CPU有更多的核,但是单个核运行很慢,它们之前其实是相互合作而不是单独运行,所以不能直接以cores to cores这样直接比较。 运行速率:优点是,因为有更多的核,所以在做并行任务,且本质相近的事务时,GPU的处理能力很棒 例如: 神经网络里的矩 阅读全文
posted @ 2020-05-26 11:29 ChevisZhang 阅读(338) 评论(0) 推荐(0)
摘要: 思路: 1. 判断两个str是否是同样构成可以用 collections.Couter(str) 返回一个dict, 将这些dicts 放入一个专门取index的列表: [ dict1,dict2,dict3]等等 若已有相同元素形成的dict,则将其存入对应dict index的列表中 [['ab 阅读全文
posted @ 2020-05-25 19:00 ChevisZhang 阅读(128) 评论(0) 推荐(0)
摘要: 思路: 矩阵的转置与翻转 1. 一想到转置就是 array.T 或者 array.transpose() ,没想到矩阵也可以直接用遍历翻转。 for i in range(len(matrix)): for j in range(i,len(matrix)): matrix[i][j],matrix 阅读全文
posted @ 2020-05-25 18:15 ChevisZhang 阅读(137) 评论(0) 推荐(0)
摘要: 总结:优化是为了 improve the training_loss; Regularization/ Ensembling is improving the performance on the test data; Transfer learning 使得在样本量小的时候也可以使用CNN。 Re 阅读全文
posted @ 2020-05-24 18:39 ChevisZhang 阅读(331) 评论(0) 推荐(0)
摘要: 总结: 0. 优化是为了 improve the training_loss; Regularization/ Ensembling is improving the performance on test data; Transfer learning 使得在样本量小的时候也可以使用CNN。 1. 阅读全文
posted @ 2020-05-24 11:50 ChevisZhang 阅读(216) 评论(0) 推荐(0)
摘要: 昨天写的因为没有及时发布,又丢失了,现在重写一遍重点。 1. activation functions 1) 总结:一般都用ReLu,因为在x>0时,不会出现梯度消失 可以尝试Leakly ReLu ELU Maxout(参数加倍) tanh(0-centered) 不要用Sigmoid 2)Sig 阅读全文
posted @ 2020-05-23 15:18 ChevisZhang 阅读(434) 评论(0) 推荐(0)
摘要: SVM的优缺点(复习) https://blog.csdn.net/qq_38734403/article/details/80442535 https://blog.csdn.net/u012879957/article/details/82459315 https://www.cnblogs.c 阅读全文
posted @ 2020-05-21 18:53 ChevisZhang 阅读(2687) 评论(0) 推荐(0)
摘要: 值得再度好多遍:https://www.cnblogs.com/wj-1314/p/9593364.html 摘抄自‘ 战争热诚’ 的博文 权值共享: 下图左:如果我们有1000x1000像素的图像,有1百万个隐层神经元,那么他们全连接的话(每个隐层神经元都连接图像的每一个像素点),就有1000x1 阅读全文
posted @ 2020-05-20 17:07 ChevisZhang 阅读(1881) 评论(0) 推荐(0)
摘要: 1. 池化层 pooling 特征降维,减少过拟合 1) pooling的目的是 使得每一层smaller and more manageable , 这是为了有更少的参数数量,来表示输入的这张图 2) 池化操作 只在平面上(actication map)操作,不在depth上操作,所以depth 阅读全文
posted @ 2020-05-20 16:49 ChevisZhang 阅读(169) 评论(0) 推荐(0)
摘要: slides见 http://cs231n.stanford.edu/2017/syllabus.html 1. 回顾全连接层 2. 卷积层: 能maintain数据的空间结构 1) fileterW在做点积的时候,5*5*3 被flatten 成 75*1 ,然后点积得到一个值 两个向量a = [ 阅读全文
posted @ 2020-05-20 11:40 ChevisZhang 阅读(133) 评论(0) 推荐(0)
上一页 1 ··· 16 17 18 19 20 21 22 23 24 ··· 30 下一页