洞明先生的博客

穷通悟理是极乐
  新随笔  :: 管理

06 2016 档案

摘要:前两个的默认是只有一个主体,对于 localization 使用的方法就是一个回归问题,回归值是一个四元组 对于 多对象的图片,使用slide window的方式来扫描,中间有些技巧 VGG 适合做迁移学习 ,GoogleLeNet 在 VGG 初始上参数调整的 ResNet 微软 152 层,这么 阅读全文

posted @ 2016-06-01 17:18 洞明 阅读(5637) 评论(2) 推荐(0) 编辑

摘要:1. 网络调不了 1) init 的工作 2) 想办法找pre train 去 fine tuning 3) batch normalization 减小依赖度 4) 别用 sigmoid 2. 准确率上不去 或者 早停止 了,即:validate 或者 交叉验证集 上的loss 不再下降,但是 t 阅读全文

posted @ 2016-06-01 17:16 洞明 阅读(6496) 评论(0) 推荐(0) 编辑

摘要:LR 本身也可以视为一个 感知机,只是把 sign 函数转化为 sigmoid 函数 这里既可以说是 LR,也可以说是 感知机 即:神经网络 有 LR 或者感知机组成 神经网络通过 sigmoid 等非线性变换函数可以实现逻辑或,逻辑与 主要工作在这个 sigmoid 层,而前面的系数w 需要预先配 阅读全文

posted @ 2016-06-01 17:14 洞明 阅读(1179) 评论(0) 推荐(0) 编辑

摘要:斜率是数值没有方向,核心表示的是速率 梯度有方向的,核心想要表示的是某一个方向 梯度并不是简单的 y 对于每一个维度上的偏导的 拼接组合,即: grad(f) = (df/dx·i, df/dy·j, df/dz·k) 其中 后面缀的 一定是 i j k 这三个基就可以了 因为具体的方向问题,由于前 阅读全文

posted @ 2016-06-01 17:12 洞明 阅读(727) 评论(0) 推荐(0) 编辑

摘要:要开始逐步 去尝试接收矩阵计算 在逻辑等价上,矩阵计算 与 for循环 是等价的 for 循环是矩阵运算的标量化,是低效的 高效计算的基础是大量使用矩阵运算 1. 用库来规范自己的科学计算行为,你用的矩阵操作,在 numpy scipy 上都有 2. 用库来规范你的预处理,preprocess 3. 阅读全文

posted @ 2016-06-01 17:11 洞明 阅读(720) 评论(0) 推荐(0) 编辑

摘要:微积分: · Taylor 层层展开,看极值 · 标量求导 化成 矩阵求导,用新的 公式理论 · # hessian 与正定性 的提出 概率: · 中心极限定理,N 个 any 分布累积和 就是 正态分布 矩阵: · Ax = λx 的几何意义 是旋转与伸缩 一个响亮 · PCA 的本质就是 对协方 阅读全文

posted @ 2016-06-01 17:10 洞明 阅读(1937) 评论(0) 推荐(0) 编辑