会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
InsistPy
博客园
首页
新随笔
联系
订阅
管理
上一页
1
2
3
4
5
6
下一页
2018年9月10日
caffe学习记录(六) MobileNet fine tune
摘要: 记录在unbantu14.04, caffe框架下对MobileNet的自有数据集fine tune。 首先git clone一下caffe版本的mobilenet https://github.com/shicai/MobileNet-Caffe.git 然后把deploy.prototxt文件修
阅读全文
posted @ 2018-09-10 19:17 InsistPy
阅读(1691)
评论(1)
推荐(0)
2018年9月8日
caffe学习记录(五) SSD训练+SSDpelee测试
摘要: SSD就不多介绍了,是今年非常流行的Object detection 模型:对各大数据集的测试结果如下表。 首先要git weiliu版本的caffe 然后在unbantu上对caffe进行配置,百度一下教程 首先要准备VGG16 的模型without fc layer 的版本,下载地址:https
阅读全文
posted @ 2018-09-08 17:52 InsistPy
阅读(892)
评论(0)
推荐(0)
2018年9月4日
caffe学习记录(四) solver
摘要: 对应之前的tensorflow的optimizor,再次回顾一下,solver就是使得loss最小化的方法。,对于一个数据集,我们需要优化的目标函数是整个数据集中所有数据loss的平均值。 其中,fW(x(i))计算的是数据x(i)上的loss, 先将每个单独的样本x的loss求出来,然后求和,最后
阅读全文
posted @ 2018-09-04 14:23 InsistPy
阅读(317)
评论(0)
推荐(0)
caffe学习记录(三) Blob,layer Net, solver配置文件的编写
摘要: Blob,layer Net, solver配置文件的编写 blob: 数据节点,4维数组:num, channel, width, height,相当于 一个tensor, n个tensor组成, n deminsional 矩阵。 在一个卷积层中,输入一张3通道图片,有96个卷积核,每个核大小为
阅读全文
posted @ 2018-09-04 14:10 InsistPy
阅读(257)
评论(0)
推荐(0)
caffe学习记录(二)
摘要: 继续layer的学习。 cafee中的卷积层: param:只有一个为权重的学习率,两个的话第二个为bias的学习率,最终的学习率需要这个数乘以solver.prototxt配置文件中的base_lr。 num_output:卷积核个数 kernel_size": filter size,如果 h
阅读全文
posted @ 2018-09-04 11:30 InsistPy
阅读(261)
评论(0)
推荐(0)
caffe学习记录(一)
摘要: 在深度学习零率,caffe是一个非常高效的的图像处理框架,结合了nvidia的cuda,cudnn加速技术,非常适合进行AI CNN方向的图像分类,回归,分割等。 但是由于caffe的教程较少,而且配置比较复杂,可能用的人没有tf那么广泛。 昨天在Ubantu14.04上配置了caffe, CUDA
阅读全文
posted @ 2018-09-04 10:41 InsistPy
阅读(370)
评论(0)
推荐(0)
2018年8月24日
神经网络-GoogleNet的发展,介绍,贡献
摘要: GoogleNet的发展 Inception V1: Inception V1中精心设计的Inception Module提高了参数的利用率;nception V1去除了模型最后的全连接层,用全局平均池化层(将图片尺寸变为1x1),在先前的网络中,全连接层占据了网络的大部分参数,很容易产生过拟合现象
阅读全文
posted @ 2018-08-24 21:56 InsistPy
阅读(1138)
评论(0)
推荐(0)
2018年8月22日
神经网络-训练数据增强
摘要: 构建更多训练数据
阅读全文
posted @ 2018-08-22 16:54 InsistPy
阅读(439)
评论(0)
推荐(0)
神经网络-1x1 filter的作用
摘要: 在设计卷积神经网络架构时,有时候想压缩input的width 和 height,通常的做法便是 加一层pooling layer。 但是第三维的信息,有时候过多,而且过于复杂,这时候就要用到1x1xchannel的filter了。 如图: 1X1x192的filter相当于对图片的某一个像素点进行神
阅读全文
posted @ 2018-08-22 15:43 InsistPy
阅读(520)
评论(0)
推荐(0)
2018年8月21日
神经网络- 深度学习optimizer的选择
摘要: optimizer是在训练中,运用到的训练方法,最常用的是梯度下降法,去寻找最优loss,tf中常见的optimizer有: 通过Dr.Sebastian Ruder 的论文An overview of gradient descent optimization algorithms来详细了解一些优
阅读全文
posted @ 2018-08-21 12:25 InsistPy
阅读(740)
评论(0)
推荐(0)
上一页
1
2
3
4
5
6
下一页
公告
隐藏