摘要: https://www.bbsmax.com/A/A2dmBX1qze/-视觉目标跟踪算法——SRDCF算法解读 https://blog.csdn.net/sinat_27318881/article/details/79703947-【小白笔记】目标跟踪算法SRDCF论文笔记 https://b 阅读全文
posted @ 2021-01-17 13:42 keep&learning 阅读(232) 评论(0) 推荐(0) 编辑
摘要: https://blog.csdn.net/shenziheng1/article/details/80943494 图:CFNet整体架构。非对称的孪生网络,非对称部分是由于correlation filter部分引起的,作者是想把cf引入到神经网络中,从而能够实现end-to-end优化。tra 阅读全文
posted @ 2021-01-10 20:26 keep&learning 阅读(87) 评论(0) 推荐(0) 编辑
摘要: https://blog.csdn.net/sumangshang/article/details/79531921 https://blog.csdn.net/autocyz/article/details/53216786 https://blog.csdn.net/qq_29598161/ar 阅读全文
posted @ 2021-01-07 22:33 keep&learning 阅读(68) 评论(0) 推荐(0) 编辑
摘要: https://blog.csdn.net/sinat_27318881/article/details/84668861 https://zhuanlan.zhihu.com/p/79355209 https://blog.csdn.net/hey_youngman/article/details 阅读全文
posted @ 2020-12-26 23:20 keep&learning 阅读(109) 评论(0) 推荐(0) 编辑
摘要: https://www.cnblogs.com/P3nguin/p/10570053.html Precision plot: percentages of frames whose estimated locations lie in a given threshold distance to g 阅读全文
posted @ 2020-12-25 22:57 keep&learning 阅读(1801) 评论(0) 推荐(0) 编辑
摘要: 多层感知器,计算训练数据的输出,根据预测输出和实际输出之间的差异去调整神经元的权值w和偏重b,不断迭代训练直到误差小于一定范围。 对于单个神经元: 多层感知机的前向传播(Forward Propagation): 多层感知机的反向传播(Backward Propagation): Loss func 阅读全文
posted @ 2020-11-20 23:30 keep&learning 阅读(173) 评论(0) 推荐(0) 编辑
摘要: 1、神经网络为什么引入激活函数? 如果不引入激活函数,神经网络的每一层输出都是上层输入的线性函数,无论神经网络有多少层,输出都是输入的线性组合,与没有隐藏层的效果相当,这种情况就是最原始的感知机(Perceptron)。 因此,引入非线性函数作为激励函数,这样深层神经网络就有意义了(不再是输入的线性 阅读全文
posted @ 2020-11-01 18:55 keep&learning 阅读(644) 评论(0) 推荐(0) 编辑
摘要: CREST 在目标目标跟踪领域,目前最常用大多以相关滤波为主。CREST作者认为现有的相关滤波方法将特征提取与滤波器更新分离开,无法进行端到端训练。而作者则提出了使用一层CNN网络来模拟相关滤波操作,并将特征提取、模型训练等集成在一起,可以进行端到端训练。同时为了避免模型退化,作者采用了残差思想对网 阅读全文
posted @ 2020-10-31 22:28 keep&learning 阅读(141) 评论(0) 推荐(0) 编辑
摘要: 最近学习遇到了代价函数,在网上搜索整理了几个容易混淆的概念: 一、定义 损失函数定义在单个样本上,算的是一个样本的误差。 代价函数定义在整个训练集上,是所有样本误差的平均,也就是损失函数的平均。 目标函数定义为最终需要优化的函数,等于经验风险 + 结构风险(也就是Cost Function + 正则 阅读全文
posted @ 2020-10-24 21:09 keep&learning 阅读(985) 评论(0) 推荐(0) 编辑