会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
keep going!~
苦尽甘来 定不负生而善之
博客园
首页
新随笔
联系
管理
上一页
1
···
18
19
20
21
22
23
24
25
26
···
43
下一页
2019年7月1日
位运算————位1的个数
摘要: 1 //移位,通过和1进行与操作 2 class Solution { 3 public: 4 int hammingWeight(uint32_t n) { 5 int res=0; 6 while(n)//while n==0,quit while 7 { 8 res+=n&1; 9 ...
阅读全文
posted @ 2019-07-01 10:14 Austin_anheqiao
阅读(310)
评论(0)
推荐(0)
2019年6月30日
数学题,找最轻的球
摘要: 二十个球一个较轻用天平至少称3次能保证找出这个较轻的球。 一、分成三组,7,7,6,称7和7找到最轻的一个,如果相等,那么轻的在6; 二、如果在7中,分成2,2,3,秤2和2,找轻的;或秤3时:1,1,1,秤1和1找最轻的 如果在6中,分成2,2,2,秤2和2,最多秤两次,最少秤一次,就找了在哪个2
阅读全文
posted @ 2019-06-30 18:12 Austin_anheqiao
阅读(463)
评论(0)
推荐(0)
局部最优怎么办?
摘要: 1、使用模拟退火算法SA(Simulate Anneal) 贪心算法是,在求最优解时,从a点开始试探,如果函数值继续减少,那么试探过程继续,到达b点时,试探过程结束(因为无论朝哪个方向努力,结果只会越来越大),因此找到了局部最优b点。 模拟退火算法以一定的概率来接受一个比当前解要差的解,因此有可能会
阅读全文
posted @ 2019-06-30 18:05 Austin_anheqiao
阅读(3867)
评论(0)
推荐(0)
什么是梯度爆炸?怎么解决?
摘要: 梯度的衰减是有连续乘法导致的,如果在连续乘法中出现一个非常大的值,最后计算出的梯度就会很大,就想当优化到断崖处是,会获得一个很大的梯度值,如果以这个梯度值进行更新,那么这次迭代的步长就很大,可能会一下子飞出了合理的区域。 解决的方法是: 梯度裁剪: 把沿梯度下降方向的步长限制在一个范围之内,计算出来
阅读全文
posted @ 2019-06-30 16:41 Austin_anheqiao
阅读(8252)
评论(0)
推荐(0)
反向传播算法原理
摘要: 假设目标函数是平房误差和函数,激活函数是sigmoid, 1、目标函数:平方误差和 2、使用随机梯度下降法进行优化时要计算每一个权值通过全导公式计算这个偏导,要想到这个w是通过影响j的加权输入来影响网络中的其他部分的,所以可以转变成: 就转变成求下面这个偏导了,这个偏导的相反数就是所说的误差项。 3
阅读全文
posted @ 2019-06-30 16:19 Austin_anheqiao
阅读(979)
评论(0)
推荐(0)
GBDT
摘要: 1.简介 gbdt全称梯度下降树,在传统机器学习算法里面是对真实分布拟合的最好的几种算法之一。 好处: 效果好; 可分类,也可回归; 可以筛选特征; 面试考核点: gbdt 的算法的流程? gbdt 如何选择特征 ? gbdt 如何构建特征 ? gbdt 如何用于分类? gbdt 通过什么方式减少误
阅读全文
posted @ 2019-06-30 14:27 Austin_anheqiao
阅读(881)
评论(0)
推荐(0)
2019年6月29日
重建二叉树
摘要: python: c++
阅读全文
posted @ 2019-06-29 17:27 Austin_anheqiao
阅读(224)
评论(0)
推荐(0)
列表
摘要: lst.pop() 弹出末尾元素,返回这个元素 lst.pop(i) 弹出i索引位置的元素 lst.append() lst.index(val) 返回val值的索引
阅读全文
posted @ 2019-06-29 16:21 Austin_anheqiao
阅读(101)
评论(0)
推荐(0)
2019年6月28日
BN和正则化一起使用的后果
摘要: 就是因为 batch norm 过后, weight 影响没那么重了,所以 l2 weight decay 的效果就不明显了。 证明了L2正则化与归一化相结合时没有正则化效应。相反,正则化会影响权重的范围,从而影响有效学习率。
阅读全文
posted @ 2019-06-28 19:40 Austin_anheqiao
阅读(1561)
评论(0)
推荐(0)
L1、L2损失函数、Huber损失函数
摘要: L1范数损失函数,也被称为最小绝对值偏差(LAD),最小绝对值误差(LAE) L2范数损失函数,也被称为最小平方误差(LSE) 鲁棒性 最小绝对值偏差之所以是鲁棒的,是因为它能处理数据中的异常值。如果需要考虑任一或全部的异常值,那么最小绝对值偏差是更好的选择。 L2范数将误差平方化(如果误差大于1,
阅读全文
posted @ 2019-06-28 19:25 Austin_anheqiao
阅读(12815)
评论(0)
推荐(0)
上一页
1
···
18
19
20
21
22
23
24
25
26
···
43
下一页
公告