会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
larkii
博客园
首页
新随笔
联系
订阅
管理
上一页
1
2
3
4
下一页
2019年10月7日
categorical_crossentropy VS sparse_categorical_crossentropy
摘要: If the targets are one...
阅读全文
posted @ 2019-10-07 08:21 larkii
阅读(109)
评论(0)
推荐(0)
2019年10月3日
WEI.X.S
摘要: 推荐使用 3×3 , 5×5 这样的小卷积核, 卷积步长设为 1. 且搭配 padding, 对卷积核大小为 n×n , 步长为 1 的卷积操作, 当 p=(f−1)/2p = (f-1)/2p=(f−1)/2 时, 便可维持输出与原输入等大. 为了硬件字节级存储管理的方便, 卷积核个数通常设置为
阅读全文
posted @ 2019-10-03 14:49 larkii
阅读(153)
评论(0)
推荐(0)
2019年9月27日
param kernel_size vs filters
摘要: In keras.layers.Conv2D...
阅读全文
posted @ 2019-09-27 16:13 larkii
阅读(129)
评论(0)
推荐(0)
Richard Zhang 2018
摘要: Abstract 现在广泛使用的 PSNR 和 SSIM 在解释人类感知上失败了. 但是, Recently, the deep learning community has found that features of the VGG networktrained on ImageNet clas
阅读全文
posted @ 2019-09-27 10:48 larkii
阅读(154)
评论(0)
推荐(0)
2019年9月23日
note for DL from scratch
摘要: 对于神经网络的 输出层, 一般而言, 回归问题采用 恒等函数 :a(x)=xa(x)=xa(x)=x, 分类问题采用 softmax 函数 :yk^=eak∑i=1neai\hat{y_k}=\frac{e^{a_{k}}}{\sum_{i=1}^ne^{a_i}}yk^=∑i=1neaie
阅读全文
posted @ 2019-09-23 20:00 larkii
阅读(107)
评论(0)
推荐(0)
2019年9月21日
jupyter预测输出文件
摘要: >>> prediction = reg.p...
阅读全文
posted @ 2019-09-21 16:08 larkii
阅读(242)
评论(0)
推荐(0)
loss VS metrics in keras
摘要: linkThe loss function ...
阅读全文
posted @ 2019-09-21 10:26 larkii
阅读(112)
评论(0)
推荐(0)
epochs vs iteration vs batch size
摘要: mini batch 在优化算法中的作用:深...
阅读全文
posted @ 2019-09-21 10:02 larkii
阅读(147)
评论(0)
推荐(0)
2019年9月20日
数据清洗
摘要: 数据列缺失的四种处理方法丢弃丢弃意味着会消减...
阅读全文
posted @ 2019-09-20 10:52 larkii
阅读(129)
评论(0)
推荐(0)
2019年9月18日
深度学习框架
摘要: 深度学习框架有:Caffe/ Caffe2C...
阅读全文
posted @ 2019-09-18 09:16 larkii
阅读(146)
评论(0)
推荐(0)
上一页
1
2
3
4
下一页