http://blog.sina.com.cn/u/5438469990
摘要: Squeeze-and-Excitation Networks SE-net 来自于Momenta 孙刚团队 SE的设计思路: 从卷积操作的实际作用来考虑,conv 把局部空间信息和通道信息组合起来,组合之后形成FM上的值,之前大部分都是空间上做的。 对channel考虑的少,但是卷积本身就可以学到 阅读全文
posted @ 2018-09-17 17:48 Bob·li 阅读(1795) 评论(0) 推荐(0) 编辑
摘要: 深度学习被引起关注是在2012年,用神经网络训练的一个分类模型在ImagNet上取得了第一名,而且其分类精度比第二名高出10多个点,当时所使用的模型为AlexNet,现在看来其为一个比较简单的网络,而且只有比较浅的八层网络,但是在当时来讲已经很了不起了。这也就引发了后面对神经网络研究的两个方向,以提 阅读全文
posted @ 2018-07-10 11:05 Bob·li 阅读(1057) 评论(0) 推荐(0) 编辑
摘要: 主流小网络包括:SqueezeNet, MobileNet(V1), 和CVPR 2018最新模型ShuffleNet, IGCV2, MobileNetV2 1、ImageNet上的top-1准确率 vs 理论计算量 vs 模型大小的对比,来自tensorflow/models,本文要探讨和分析的 阅读全文
posted @ 2018-07-09 19:25 Bob·li 阅读(467) 评论(0) 推荐(0) 编辑
摘要: 定义 说明 此函数大致与tf_nn_softmax_cross_entropy_with_logits的计算方式相同, 适用于每个类别相互独立且排斥的情况,一幅图只能属于一类,而不能同时包含一条狗和一只大象 但是在对于labels的处理上有不同之处,labels从shape来说此函数要求shape为 阅读全文
posted @ 2018-05-15 15:26 Bob·li 阅读(580) 评论(0) 推荐(0) 编辑
摘要: 据说多推推公式可以防止老年痴呆,(●ˇ∀ˇ●) 偶尔翻到我N年前第一次推导神经网络的博客居然四页纸,感慨毅力! http://blog.sina.com.cn/s/blog_1442877660102wpkf.html 其实 四行公式、 两分钟时间 足够推出来 下次挑战SVM5分钟 阅读全文
posted @ 2018-05-02 20:29 Bob·li 阅读(444) 评论(0) 推荐(0) 编辑
摘要: 应用需注明原创! 深度学习在2015年中左右基本已经占据了计算机视觉领域中大部分分支,如图像分类、物体检测等等,但迟迟没有视觉跟踪工作公布,2015年底便出现了一篇叫MDNet的论文,致力于用神经网络解决视觉跟踪,它同时也是2015年VOT的冠军。 先图再理论: 离线学习 frame1 frame2 阅读全文
posted @ 2018-04-26 08:37 Bob·li 阅读(1405) 评论(0) 推荐(1) 编辑
摘要: 一、gfile模块是什么 tf.gfile模块的主要角色是:1.提供一个接近Python文件对象的API,以及2.提供基于TensorFlow C ++ FileSystem API的实现。 C ++ FileSystem API支持多种文件系统实现,包括本地文件,谷歌云存储(以gs://开头)和H 阅读全文
posted @ 2018-04-24 09:50 Bob·li 阅读(385) 评论(0) 推荐(0) 编辑
摘要: TensorFlow用五个不同级别的日志信息。为了升序的严重性,他们是调试DEBUG,信息INFO,警告WARN,错误ERROR和致命FATAL的。当你配置日志记录在任何级别,TensorFlow将输出对应于更高程度的严重性和所有级别的日志信息。例如,如果设置错误的日志记录级别,将得到包含错误和致命 阅读全文
posted @ 2018-04-24 09:35 Bob·li 阅读(258) 评论(0) 推荐(0) 编辑
摘要: tensorflow的可视化是使用summary和tensorboard合作完成的. 基本用法 首先明确一点,summary也是op. 输出网络结构 with tf.Session() as sess: writer = tf.summary.FileWriter(your_dir, sess.gr 阅读全文
posted @ 2018-04-24 09:20 Bob·li 阅读(246) 评论(0) 推荐(0) 编辑
摘要: """Configures the optimizer used for training.Args: learning_rate: A scalar or `Tensor` learning rate.Returns: An instance of an optimizer.Raises: Val 阅读全文
posted @ 2018-04-24 09:04 Bob·li 阅读(370) 评论(0) 推荐(0) 编辑