tf.identity 个人理解
摘要:tf.identity is useful when you want to explicitly transport tensor between devices (like, from GPU to a CPU). The op adds send/recv nodes to the graph
阅读全文
tkinter绑定鼠标滚轮滚动事件 canvas.bind("<MouseWheel>", processWheel) 失效
摘要:其实,不同系统不一样,我的是Ubuntu 所以是<Button-4> <Button-5> 见下: 来自:https://stackoverflow.com/questions/17355902/python-tkinter-binding-mousewheel-to-scrollbar Platf
阅读全文
ValueError: too many values to unpack tensorflow
摘要:使用tensorflow 的时候报错: result ,_= sess.run(ops)ValueError: too many values to unpack 其实是ops里面不止一个,返回解压成2个(result ,_) 失败!!!! 正确的是: result = sess.run(ops)
阅读全文
PR(Precision-Recall)曲线和mAP指标
摘要:来自: https://www.zhihu.com/question/41540197 https://www.douban.com/note/518998773/ 作者:水哥链接:https://www.zhihu.com/question/41540197/answer/91698989来源:知
阅读全文
RPN(region proposal network)之理解
摘要:在faster-r-cnn 中,因为引入rpn层,使得算法速度变快了不少,其实rpn主要作用预测的是 “相对的平移,缩放尺度”,rpn提取出的proposals通常要和anchor box进行拟合回归,就像 卡尔曼滤波一样,最终结果是基于观测量加上一个预测量。这里将的不错,公式和代码也 切合。 下面
阅读全文
atrous convolution
摘要:atrous convolution 简而言之,带孔卷积: 来自:https://zhuanlan.zhihu.com/p/27470685 假设一个二维信号,每个位置对应的输出为和卷积核为,带孔卷积在输入feature map上的计算如下: 其中孔的比例为对应采样输入信号的步长,这相当于将输入与通
阅读全文
对于机器学习中多通道卷积经常理解不太精确,这里有篇讲的不错的
摘要:http://blog.csdn.net/zy1034092330/article/details/62044941 2.1 多通道图像卷积基础知识介绍 缩进在介绍RPN前,还要多解释几句基础知识,已经懂的看官老爷跳过就好。 对于单通道图像+单卷积核做卷积,第一章中的图3已经展示了; 对于多通道图像
阅读全文
tensorflow 指定使用gpu处理,tensorflow占用多个GPU但只有一个在跑
摘要:我们在刚使用tensorflow的过程中,会遇到这个问题,通常我们有多个gpu,但是 在通过nvidia-smi查看的时候,一般多个gpu的资源都被占满,但是只有一个gpu的GPU-Util 和 219W / 250W(Usage/Cap)会被占满。实际上我们只有一个在跑,但是我们其实只需要 一个卡
阅读全文
Bad owner or permissions on .ssh/config的解决
摘要:出处:http://blog.csdn.net/notzuonotdied/article/details/69668519 在.ssh目录,执行以下命令行:
阅读全文
anchor_generator.proto:11:3: Expected "required", "optio nal", or "repeated"
摘要:转自:https://github.com/tensorflow/models/issues/1834 When I use the commond " protoc object_detection/protos/*.proto --python_out=.",The output:object_
阅读全文
机器学习之overfiting
摘要:有错欢迎指正,别让小弟继续错下去。 我们在使用机器学习过程中,经常会overfiting,overfiting的产生原因是noise。训练样本大的话,还好,不用考虑这个 问题。但是,当数据量小的时候,加上模型的结构还不想改变。比如,你想尝试使用vgg16 网络进行训练,对于vgg的VC维来说是比较大
阅读全文
对于机器学习中,数据增强
摘要:众所周知,数据对机器学习来说是那么的重要,但是我们通常因为各种原因得不到 理想的数据量,这时候我们就想到进行数据增强。比如添加噪声,左右镜像,随机crop 一部分等,但是有一点要注意的,就是要记住我们要机器学习的是什么特征,比如说人脸, 眼睛,嘴巴等,这时候添加噪声就不能改变这些特征。一句话:喂给机
阅读全文
分类问题中,对于训练数据中,如何找出真正有效的数据和让模型自动标注的一些想法
摘要:最近,在学习机器学习的分类问题,数据是一个问题,我们用一些数据训练,发现,训练的数据对好的图片识别率高,对不好的图片识别率低, 虽然通常好的图片比较多,但是就像svm一样,支持边界的就那几个点,所以决定分类边界的往往是分错的点。但这并不绝对,因为好的数据 可以决定大的边界,差的数据决定小的边界,因此
阅读全文
避免样本不均衡的一种思路
摘要:我们通常训练出一个分类模型时,再用这个模型对训练集合或者测试集合分类时,会发现分类会侧重于某一个类别 这时候可能出现训练样本不均衡,或者边界样本(这里边界样本就是指那些不容易分类,或者分类错误率主要贡献的样本) 这时候可以将分类错误的样本单独分出来,并手动再标注下,形成新的数据集合,然后,基于这个新
阅读全文
关于模型复杂度的一个想法
摘要:我们直观理解,如果在训练中,我们画出训练error和valid error,当发现overfiting了,在样本 足够的情况下overfiting是不是可以说明模型复杂度大于样本空间,这样我们是不是可以减少模型 的参数量,或者feature map,是不是可以给模型压缩做一个参考。同样,如果训练迭代
阅读全文
tensorflow serving 之minist_saved_model.py解读
摘要:最近在学习tensorflow serving,但是就这样平淡看代码可能觉得不能真正思考,就想着写个文章看看,自己写给自己的,就像自己对着镜子演讲一样,写个文章也像自己给自己讲课,这样思考的比较深,学到的也比较多,有错欢迎揪出, minist_saved_model.py 是tensorflow的第
阅读全文
tensorflow serving 中 No module named tensorflow_serving.apis,找不到predict_pb2问题
摘要:最近在学习tensorflow serving,但是运行官网例子,不使用bazel时,发现运行mnist_client.py的时候出错, 在api文件中也没找到predict_pb2,因此,后面在网上看到,它在这里 "bazel-bin/tensorflow_serving/example/mnis
阅读全文
贝叶斯公式的个人理解
摘要:我们来看下贝叶斯公式: 问题:假设有看到一个 现象B,然后,这个现象B是由事件Ai引发的概率是多少? 上面的问题有一点拗口是不是?按到正常思维应该是:有一个事件,这个事件引发某一个现象的概率是多少。。。 但是,事与愿违。。。。感觉烦也得搞定!!!!!!!!!!!! 我们再分析下,现在有事件A1,A2
阅读全文
决策树:为什么分类后信息熵减少了。(信息熵的定义,信息增益)
摘要:这个问题可能比较简单,但是也算是一点感悟吧。我们来看个例子(来自:http://blog.csdn.net/acdreamers/article/details/44661149): 当前信息的熵计算如下: 再看下,按照outlook分类后的例子: 分类后信息熵计算如下: 代表在特征属性的条件下样本
阅读全文