Hebbian Learning Rule

摘要: Learning Rule learning rules, for a connectionist system, are algorithms or equations which govern changes in the weights of the connections in a netw 阅读全文
posted @ 2017-06-18 09:41 everyday_haoguo 阅读(475) 评论(0) 推荐(0) 编辑

论文笔记 Weakly-Supervised Spatial Context Networks

摘要: Background 在文本处理领域,“The idea of local spatial context within a sentence, proved to be an effective supervisory signal for learning distributed word ve 阅读全文
posted @ 2017-06-17 15:24 everyday_haoguo 阅读(933) 评论(0) 推荐(0) 编辑

在Caffe添加Python layer详细步骤

摘要: 本文主要讨论的是在caffe中添加python layer的一般流程,自己设计的test_python_layer.py层只是起到演示作用,没有实际的功能。 1) Python layer 在caffe目录结构中放哪? 下图是caffe的目录结构,在本文中我是将python layer防止examp 阅读全文
posted @ 2017-06-15 15:52 everyday_haoguo 阅读(6849) 评论(0) 推荐(0) 编辑

论文笔记 Learning to Compare Image Patches via Convolutional Neural Networks

摘要: Background 引入论文中的一句话来说明对比图像patches的重要性,“Comparing patches across images is probably one of the most fundamental tasks in computer vision and image ana 阅读全文
posted @ 2017-06-14 22:09 everyday_haoguo 阅读(1671) 评论(0) 推荐(0) 编辑

Deconvolution 反卷积理解

摘要: 引入网友的一个回答如下 Deconvolution layer is a very unfortunate name and should rather be called a transposed convolutional layer. Visually, for a transposed co 阅读全文
posted @ 2017-06-14 08:56 everyday_haoguo 阅读(1011) 评论(0) 推荐(0) 编辑

论文笔记 Feature Pyramid Networks for Object Detection

摘要: Background 在做目标检测的时候,目标可大可小,如何检测出各种尺度下目标是计算机视觉面临的一个很大挑战。既然目标有多个尺度,那么我是不是可以提取多个尺度的特征呢?答案是肯定的,如下图(a)所示(蓝色的框代表feature map,框的线条越粗,其表达语义的能力越强),我们可以获取输入图像的不 阅读全文
posted @ 2017-06-12 20:48 everyday_haoguo 阅读(524) 评论(0) 推荐(0) 编辑

Caffe2 初识

摘要: 官方网址上的这两句话很好的阐述了Caffe2的特点“A New Lightweight, Modular, and Scalable Deep Learning Framework”、“Code once, run anywhere”。我比较关心的第一个问题是,怎么利用多个GPU加速训练呢? Syn 阅读全文
posted @ 2017-06-11 16:53 everyday_haoguo 阅读(219) 评论(0) 推荐(0) 编辑

论文笔记 Densely Connected Convolutional Networks

摘要: 首先我们从宏观的角度理解一下这篇论文做了什么。这篇论文引入了一个“Dense Block”,该模块的的组成如下图所示(要点就是,Input输入到后续的每一层,每一层都输入到后续层) 在实际应用的时候,如果我们将“Dense Block”作为一个building block,那么可以按照如下的方式构建 阅读全文
posted @ 2017-06-11 11:18 everyday_haoguo 阅读(902) 评论(0) 推荐(0) 编辑

论文笔记 Aggregated Residual Transformations for Deep Neural Networks

摘要: 这篇文章构建了一个基本“Block”,并在此“Block”基础上引入了一个新的维度“cardinality”(字母“C”在图、表中表示这一维度)。深度网络的另外两个维度分别为depth(层数)、width(width指一个层的channel的数目)。 首先我们先了解一个这个“Block”是如何构建的 阅读全文
posted @ 2017-06-10 15:29 everyday_haoguo 阅读(692) 评论(0) 推荐(0) 编辑

深度学习-网络调参技巧

摘要: 最近在做深度学习实验,跑一次实验轻则以小时计、重则以天计,实在没有那么多的时间可以等待,因此想想用尽可能少的实验次数,得到尽可能好的实验效果。这样的话,问题就可以归结为如何设计合适的网络结构、如何设计合适的训练策略,主要就是: 在参考炼丹实验室的基础上,并结合自己的体会,谈谈对调参的理解,大家如果有 阅读全文
posted @ 2017-06-10 10:37 everyday_haoguo 阅读(1599) 评论(0) 推荐(1) 编辑