摘要: 现在要对所有的人进行分类, 如何进行? 通常的套路是: 按照性别来分, 可以分为男人/女人/others. 按照肤色来分, 可以分为白种人/黄种人/黑种人/... 按照国籍来分, 可以分为中国人/美国人... 按照... 显然, 按照不同的分类标准有不同的分类结果. 所以对聚类算法来说, 是没有什么 阅读全文
posted @ 2017-01-13 15:38 宁静是一种习惯 阅读(386) 评论(0) 推荐(0) 编辑
摘要: 近日将博客搬至CSDN 阅读全文
posted @ 2017-01-13 11:25 宁静是一种习惯 阅读(773) 评论(2) 推荐(0) 编辑
摘要: Mutal Information, MI, 中文名称:互信息. 用于描述两个概率分布的相似/相关程度. 常用于衡量两个不同聚类算法在同一个数据集的聚类结果的相似性/共享的信息量. 给定两种聚类结果$X,Y$, 现在用MI来衡量它们之间的相似程度 计算方式为: $$ MI(X, Y) = \sum_ 阅读全文
posted @ 2017-01-12 22:17 宁静是一种习惯 阅读(1347) 评论(0) 推荐(0) 编辑
摘要: Hierarchical Clustering(HC). 本文讨论自下而上的聚合(Agglomerative)方法. 输入输出是什么? 输入: 无标签的数据 输出: 一棵层次化的分类树. 算法思想 类似于selective search(SS)方法: 1. 初始化: ss 利用Graph base 阅读全文
posted @ 2017-01-12 19:56 宁静是一种习惯 阅读(575) 评论(0) 推荐(0) 编辑
摘要: caffe默认使用编号为0的gpu, 若它的内存不够或正忙, 即使有其余gpu空闲, caffe也不会使用. 要用哪个gpu, 就要明确指定哪个. 不指定则使用默认. 命令行 代码指定 from https://github.com/BVLC/caffe/blob/master/docs/multi 阅读全文
posted @ 2017-01-12 10:24 宁静是一种习惯 阅读(5359) 评论(0) 推荐(0) 编辑
摘要: (用到一个加一个, 并非完整的介绍) lr_policy 基本的learning rate 在 中由参数 配置. 配合 和其余的一些参数制定learning rate的变化策略. lr_policy="fixed" 在整个训练过程中learning rate不变. lr_policy="step" 阅读全文
posted @ 2017-01-11 14:54 宁静是一种习惯 阅读(1286) 评论(0) 推荐(0) 编辑
摘要: NaN 计算softmax loss时要用 "numeric robust 的计算方式" . softmax与 loss可能要分开计算. 得到前者的计算方式可以是常规方法. 但计算后者时要注意无穷大和NaN的出现. "NaN的出现" 一定是因为出现了无穷大. 无穷大的出现则是因为变量存储的数值超出了 阅读全文
posted @ 2017-01-08 20:26 宁静是一种习惯 阅读(1686) 评论(0) 推荐(0) 编辑
摘要: Reference https://groups.google.com/forum/ !msg/theano users/LRmXhTQtKAA/JmdyTzHiAwAJ 阅读全文
posted @ 2017-01-08 15:08 宁静是一种习惯 阅读(639) 评论(0) 推荐(0) 编辑
摘要: Transposed Convolution, 也叫Fractional Strided Convolution, 或者流行的(错误)称谓: 反卷积, Deconvolution. 定义请参考 "tutorial" . 此处也是对tutorial中的theano实现做一个总结, 得到一段可用的Dec 阅读全文
posted @ 2017-01-05 16:12 宁静是一种习惯 阅读(990) 评论(0) 推荐(0) 编辑
摘要: 涉及到无穷大的四则运算, 若无法确定运算结果仍为无穷大, 那么运算结果就是一个NaN. 有NaN参与的运算, 其结果也一定是NaN 阅读全文
posted @ 2016-12-31 12:36 宁静是一种习惯 阅读(26273) 评论(1) 推荐(0) 编辑