• 博客园logo
  • 会员
  • 众包
  • 新闻
  • 博问
  • 闪存
  • 赞助商
  • HarmonyOS
  • Chat2DB
    • 搜索
      所有博客
    • 搜索
      当前博客
  • 写随笔 我的博客 短消息 简洁模式
    用户头像
    我的博客 我的园子 账号设置 会员中心 简洁模式 ... 退出登录
    注册 登录
 






youxiaogeo

 
 

Powered by 博客园
博客园 | 首页 | 新随笔 | 联系 | 订阅 订阅 | 管理

随笔分类 -  深度学习

上一页 1 2 3 下一页

 
tf.identity 个人理解
摘要:tf.identity is useful when you want to explicitly transport tensor between devices (like, from GPU to a CPU). The op adds send/recv nodes to the graph 阅读全文
posted @ 2017-10-26 16:14 youxiaogeo 阅读(1355) 评论(0) 推荐(0)
tkinter绑定鼠标滚轮滚动事件 canvas.bind("<MouseWheel>", processWheel) 失效
摘要:其实,不同系统不一样,我的是Ubuntu 所以是<Button-4> <Button-5> 见下: 来自:https://stackoverflow.com/questions/17355902/python-tkinter-binding-mousewheel-to-scrollbar Platf 阅读全文
posted @ 2017-10-24 19:25 youxiaogeo 阅读(1193) 评论(0) 推荐(0)
ValueError: too many values to unpack tensorflow
摘要:使用tensorflow 的时候报错: result ,_= sess.run(ops)ValueError: too many values to unpack 其实是ops里面不止一个,返回解压成2个(result ,_) 失败!!!! 正确的是: result = sess.run(ops) 阅读全文
posted @ 2017-10-20 12:15 youxiaogeo 阅读(633) 评论(0) 推荐(0)
PR(Precision-Recall)曲线和mAP指标
摘要:来自: https://www.zhihu.com/question/41540197 https://www.douban.com/note/518998773/ 作者:水哥链接:https://www.zhihu.com/question/41540197/answer/91698989来源:知 阅读全文
posted @ 2017-10-18 19:41 youxiaogeo 阅读(2564) 评论(0) 推荐(0)
RPN(region proposal network)之理解
摘要:在faster-r-cnn 中,因为引入rpn层,使得算法速度变快了不少,其实rpn主要作用预测的是 “相对的平移,缩放尺度”,rpn提取出的proposals通常要和anchor box进行拟合回归,就像 卡尔曼滤波一样,最终结果是基于观测量加上一个预测量。这里将的不错,公式和代码也 切合。 下面 阅读全文
posted @ 2017-10-18 10:59 youxiaogeo 阅读(4946) 评论(0) 推荐(0)
atrous convolution
摘要:atrous convolution 简而言之,带孔卷积: 来自:https://zhuanlan.zhihu.com/p/27470685 假设一个二维信号,每个位置对应的输出为和卷积核为,带孔卷积在输入feature map上的计算如下: 其中孔的比例为对应采样输入信号的步长,这相当于将输入与通 阅读全文
posted @ 2017-10-17 16:13 youxiaogeo 阅读(2110) 评论(0) 推荐(0)
对于机器学习中多通道卷积经常理解不太精确,这里有篇讲的不错的
摘要:http://blog.csdn.net/zy1034092330/article/details/62044941 2.1 多通道图像卷积基础知识介绍 缩进在介绍RPN前,还要多解释几句基础知识,已经懂的看官老爷跳过就好。 对于单通道图像+单卷积核做卷积,第一章中的图3已经展示了; 对于多通道图像 阅读全文
posted @ 2017-10-13 14:40 youxiaogeo 阅读(3071) 评论(0) 推荐(1)
tensorflow 指定使用gpu处理,tensorflow占用多个GPU但只有一个在跑
摘要:我们在刚使用tensorflow的过程中,会遇到这个问题,通常我们有多个gpu,但是 在通过nvidia-smi查看的时候,一般多个gpu的资源都被占满,但是只有一个gpu的GPU-Util 和 219W / 250W(Usage/Cap)会被占满。实际上我们只有一个在跑,但是我们其实只需要 一个卡 阅读全文
posted @ 2017-09-18 20:57 youxiaogeo 阅读(4819) 评论(0) 推荐(0)
升级tensorflow1.0到1.3,报错ImportError: libcudnn.so.6: cannot open shared object file: No such file or directory Failed to load the native TensorFlow runtime.
摘要:先定位问题,发现在 /usr/local/cuda/include/ /usr/local/cuda/lib64/ 下面只有 libcudnn.so.5 因此,只要下载cudnn6.*版本的文件分别覆盖就可以啦。 sudo cp cuDNN6.*/include/cudnn.h /usr/local 阅读全文
posted @ 2017-09-18 17:16 youxiaogeo 阅读(598) 评论(0) 推荐(0)
Bad owner or permissions on .ssh/config的解决
摘要:出处:http://blog.csdn.net/notzuonotdied/article/details/69668519 在.ssh目录,执行以下命令行: 阅读全文
posted @ 2017-09-18 15:22 youxiaogeo 阅读(1335) 评论(0) 推荐(0)
anchor_generator.proto:11:3: Expected "required", "optio nal", or "repeated"
摘要:转自:https://github.com/tensorflow/models/issues/1834 When I use the commond " protoc object_detection/protos/*.proto --python_out=.",The output:object_ 阅读全文
posted @ 2017-09-18 11:33 youxiaogeo 阅读(376) 评论(0) 推荐(0)
机器学习之overfiting
摘要:有错欢迎指正,别让小弟继续错下去。 我们在使用机器学习过程中,经常会overfiting,overfiting的产生原因是noise。训练样本大的话,还好,不用考虑这个 问题。但是,当数据量小的时候,加上模型的结构还不想改变。比如,你想尝试使用vgg16 网络进行训练,对于vgg的VC维来说是比较大 阅读全文
posted @ 2017-09-17 19:53 youxiaogeo 阅读(443) 评论(0) 推荐(0)
对于机器学习中,数据增强
摘要:众所周知,数据对机器学习来说是那么的重要,但是我们通常因为各种原因得不到 理想的数据量,这时候我们就想到进行数据增强。比如添加噪声,左右镜像,随机crop 一部分等,但是有一点要注意的,就是要记住我们要机器学习的是什么特征,比如说人脸, 眼睛,嘴巴等,这时候添加噪声就不能改变这些特征。一句话:喂给机 阅读全文
posted @ 2017-09-17 17:35 youxiaogeo 阅读(1539) 评论(0) 推荐(0)
分类问题中,对于训练数据中,如何找出真正有效的数据和让模型自动标注的一些想法
摘要:最近,在学习机器学习的分类问题,数据是一个问题,我们用一些数据训练,发现,训练的数据对好的图片识别率高,对不好的图片识别率低, 虽然通常好的图片比较多,但是就像svm一样,支持边界的就那几个点,所以决定分类边界的往往是分错的点。但这并不绝对,因为好的数据 可以决定大的边界,差的数据决定小的边界,因此 阅读全文
posted @ 2017-09-14 10:15 youxiaogeo 阅读(1816) 评论(0) 推荐(0)
避免样本不均衡的一种思路
摘要:我们通常训练出一个分类模型时,再用这个模型对训练集合或者测试集合分类时,会发现分类会侧重于某一个类别 这时候可能出现训练样本不均衡,或者边界样本(这里边界样本就是指那些不容易分类,或者分类错误率主要贡献的样本) 这时候可以将分类错误的样本单独分出来,并手动再标注下,形成新的数据集合,然后,基于这个新 阅读全文
posted @ 2017-09-11 10:27 youxiaogeo 阅读(413) 评论(0) 推荐(0)
关于模型复杂度的一个想法
摘要:我们直观理解,如果在训练中,我们画出训练error和valid error,当发现overfiting了,在样本 足够的情况下overfiting是不是可以说明模型复杂度大于样本空间,这样我们是不是可以减少模型 的参数量,或者feature map,是不是可以给模型压缩做一个参考。同样,如果训练迭代 阅读全文
posted @ 2017-09-10 22:14 youxiaogeo 阅读(446) 评论(0) 推荐(0)
tensorflow serving 之minist_saved_model.py解读
摘要:最近在学习tensorflow serving,但是就这样平淡看代码可能觉得不能真正思考,就想着写个文章看看,自己写给自己的,就像自己对着镜子演讲一样,写个文章也像自己给自己讲课,这样思考的比较深,学到的也比较多,有错欢迎揪出, minist_saved_model.py 是tensorflow的第 阅读全文
posted @ 2017-08-26 17:06 youxiaogeo 阅读(4349) 评论(0) 推荐(0)
tensorflow serving 中 No module named tensorflow_serving.apis,找不到predict_pb2问题
摘要:最近在学习tensorflow serving,但是运行官网例子,不使用bazel时,发现运行mnist_client.py的时候出错, 在api文件中也没找到predict_pb2,因此,后面在网上看到,它在这里 "bazel-bin/tensorflow_serving/example/mnis 阅读全文
posted @ 2017-08-25 09:53 youxiaogeo 阅读(3050) 评论(0) 推荐(0)
贝叶斯公式的个人理解
摘要:我们来看下贝叶斯公式: 问题:假设有看到一个 现象B,然后,这个现象B是由事件Ai引发的概率是多少? 上面的问题有一点拗口是不是?按到正常思维应该是:有一个事件,这个事件引发某一个现象的概率是多少。。。 但是,事与愿违。。。。感觉烦也得搞定!!!!!!!!!!!! 我们再分析下,现在有事件A1,A2 阅读全文
posted @ 2017-07-24 17:12 youxiaogeo 阅读(314) 评论(0) 推荐(0)
决策树:为什么分类后信息熵减少了。(信息熵的定义,信息增益)
摘要:这个问题可能比较简单,但是也算是一点感悟吧。我们来看个例子(来自:http://blog.csdn.net/acdreamers/article/details/44661149): 当前信息的熵计算如下: 再看下,按照outlook分类后的例子: 分类后信息熵计算如下: 代表在特征属性的条件下样本 阅读全文
posted @ 2017-07-20 20:41 youxiaogeo 阅读(3033) 评论(1) 推荐(0)
 

上一页 1 2 3 下一页