随笔分类 - 校招
摘要:1.resnet的skip connection是通过eltwise相加的 2.resnet做detection的时候是在conv4_x的最后一层(也就是stage4的最后一层),因为这个地方stride为16 作者:灰灰链接:https://www.zhihu.com/question/64494
阅读全文
摘要:1.欠拟合:模型没有充分学习到数据集的特征,导致在训练集和测试集性能都很差的情况 2.解决办法: 1.增加其他特征项,可以通过“组合”、“泛化”、“相关性”等的操作来添加特征项 2.添加多项式特征,这个在机器学习算法里面用的很普遍,例如将线性模型通过添加二次项或者三次项使模型泛化能力更强 3.减少正
阅读全文
摘要:1.全0初始化或者同一层的初始化为同一个值。 这样的初始化导致前向传播得到相同的值,反向传播也得到相同的梯度,这样就失去了神经元的不对称性 2. 3.xavier初始化 首先明确均匀分布:数学期望:E(x)=(a+b)/2 方差:D(x)=(b-a)²/12 https://zhuanlan.zhi
阅读全文
摘要:fc:1.起到分类器的作用。对前层的特征进行一个加权和,(卷积层是将数据输入映射到隐层特征空间)将特征空间通过线性变换映射到样本标记空间(也就是label) 2.1*1卷积等价于fc;跟原feature map一样大小的卷积也等价于fc,也就是输入是一个5*3*3的feature map,用一个3x
阅读全文
摘要:1.伯努利分布:伯努利分布亦称“零一分布”、“两点分布”。称随机变量X有伯努利分布, 参数为p(0<p<1),如果它分别以概率p和1-p取1和0为值。EX= p,DX=p(1-p)。 2. dropout其实也是一种正则化,因为也把参数变稀疏(l1,原论文)和变小(l2,caffe实际实现)。只有极
阅读全文
摘要:1.先弄清楚模型融合中的投票的概念 分为软投票和硬投票,硬投票就是几个模型预测的哪一类最多,最终模型就预测那一类,在投票相同的情况下,投票结果会按照分类器的排序选择排在第一个的分类器结果。但硬投票有个缺点就是不能预测概率。而软投票返回的结果是一组概率的加权平均数。 https://blog.csdn
阅读全文
摘要:单层时间复杂度: k是kenerl的尺寸,m是输出的下一层的feature map的尺寸 整个网络时间复杂度: 为什么时间复杂度只算了乘法操作而不算加法操作? 1.时间复杂度的理解 https://www.zhihu.com/question/21387264/answer/22046424 简单理
阅读全文
摘要:1.pooling的反向传播: https://blog.csdn.net/qq_21190081/article/details/72871704 pooling反向传播的原则:pooling的值和上一层对应的区域的loss(或者梯度)之和保持不变 mean pooling:把梯度平均分给4个值.
阅读全文
摘要:1. 过拟合是什么? https://www.zhihu.com/question/264909622 那个英文回答就是说h1、h2属于同一个集合,实际情况是h2比h1错误率低,你用h1来训练,用h2来测试,但h1的准确率比h2却高 个人理解:网络过分学习了训练集的特征,把不是这个训练集本质的特征也
阅读全文
摘要:已投:1.拼多多 2.快手 3.头条 4.网易(未做笔试) 5.猿题库 6.爱奇艺 7.一点咨询(自己已经拒绝了他们) 8.京东(只是官网,没有走x事业部)9.海康 10.阿里 11.依图 12.飞步 13.roadstar 未投:1.百度 2.腾讯 3.京东 4.美团 5.滴滴 6.地平线 7.f
阅读全文
摘要:余弦loss求相似度 既然我是用c++,用caffe,那这两个我要重点复习复习 深度学习方向: 1.各个优化器的比较区别?(http://freeshare.free4inno.com/resource?id=16925&home=timerank)(多次出现) 2.如何避免过拟合,l1l2正则哪个
阅读全文
摘要:resnet的skip connection用的也是eltwise相加 fpn的浅层和高层融合用的eltwise相加 hyper-net和ion都是使用的concat的方式 hyper-net网络结构 https://blog.csdn.net/qq_35608277/article/details
阅读全文
摘要:头条: 1面:求最低公共祖先,没有父指针 2面: 1.存储了1000w个视频,这些视频会有一些标志,比如某某电视台的标志,现有一个视频去判断和这些是否相同然后进行增删改查,这些视频的存储的 index信息应该怎么去设计 我答:提取特征,比如hog、sift,索引以这些特征为索引 反思:提特征为什么没
阅读全文
摘要:https://blog.csdn.net/shuzfan/article/details/71036040 github:https://github.com/bharatsingh430/soft-nms,代码在/lib/nms/下 解决的问题:就是两个框iou有一定重叠且两个框的得分都很高(同
阅读全文
摘要:https://zhuanlan.zhihu.com/p/36095768 我的推断,第二第三阶段应该不是把所有anchor进行bounding box regression,然后再选取当前条件下的所有roi,而是第一阶段选取512个roi,然后把在第一阶段匹配好的roi送到第二、三阶段 这段代码就
阅读全文
摘要:refinedet只预测4个层,并且只有conv6_1、conv6_2,没有ssd中的conv7、8、9 refinedet的4个层都只有1个aspect ratio和1个min_size,所以每层每个点只有3个anchor,arm中做location的conv4_3_norm_mbox_loc等层
阅读全文
摘要:name: "vgg_1/8" layer { name: "data" type: "AnnotatedData" top: "data" top: "label" include { phase: TRAIN } transform_param { mirror: true mean_value: 104.0 mean_value:...
阅读全文
摘要:1.解决方案 下边缘: a.论文的数据来自kitti,gt数据来自于激光雷达,利用kitti自带的开发包先将激光雷达的数据映射到图片的二维平面,每个x,y会生成对应的d(x,y),即depth.再对每个x,y求倒数,即1/d,即D(x,y).对每个D求y方向的偏导,图像的偏导就是f'y(x,y) =
阅读全文
摘要:第一周:1.所有的参数的trick 2.整个v、d系列模型的演进 3.ma周报中所有的trick 4.trick list中的所有trick 5.自己的trick整理 6.简历的修改,请杨一起来讨论,特别是上一份实习中应该被剔除的部分 第二周:1.卡尔曼滤波 2.ssd项目的整理和ssd相关论文整理
阅读全文
摘要:数据输入方面:1.image pyramid 图像金字塔.目前代码里是先选取一个scale,然后在每个GPU上按照scale读图片,相应的gt也更改."scales":[440, 520, 600, 680, 760] 使用的是短边的缩放到的尺寸,还用个maxsize限制了你的scale必须小于一个
阅读全文
浙公网安备 33010602011771号