Loading web-font TeX/Math/Italic
会员
商店
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Thaurun
算法、图像模式识别与人工智能
首页
新随笔
管理
随笔 - 11
文章 - 1
评论 - 31
阅读 -
12万
上一页
1
2
2017年9月10日
卡尔曼滤波的推导
摘要: 卡尔曼滤波的推导的完整过程
阅读全文
posted @ 2017-09-10 23:34 Thaurun
阅读(7469)
评论(0)
推荐(0)
编辑
2017年7月28日
后面有多个零
摘要: 后面有多个零 1. 阶乘(
n!
)后面有多少个零 如果用1连续乘到n,再判断有多少个0,可以明显看到的是乘积很快溢出了。优化一点的方法,每乘多一个数都判断有多少个0,再将乘积后面的0删除,即便是这样,乘积也很就溢出。所以这两种方法在n比较大时,无法使用,我们必须要有一种算法避免溢出。 由于
n!
阅读全文
posted @ 2017-07-28 17:34 Thaurun
阅读(309)
评论(0)
推荐(0)
编辑
上一页
1
2
公告
昵称:
Thaurun
园龄:
7年9个月
粉丝:
31
关注:
1
+加关注
<
2025年4月
>
日
一
二
三
四
五
六
30
31
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
1
2
3
4
5
6
7
8
9
10
最新随笔
1.MobileNets总结
2.ShuffleNet总结
3.MXNet之ps-lite及parameter server原理
4.Laplace(拉普拉斯)先验与L1正则化
5.用MXNet实现mnist的生成对抗网络(GAN)
6.MXNet--DMLC-Core代码解读与宏
7.mxnet的训练过程——从python到C++
8.L1正则化及其推导
9.mshadow的原理--MXNet
10.A-Softmax的总结及与L-Softmax的对比——SphereFace
我的标签
MXNet
(5)
人工智能
(5)
L1正则化
(2)
C++
(2)
机器学习
(2)
ShuffleNet
(1)
ps-lite
(1)
parameter sever
(1)
mshadow
(1)
MobileNets
(1)
更多
随笔档案
(11)
2017年12月(2)
2017年11月(1)
2017年10月(2)
2017年9月(6)
阅读排行榜
1. A-Softmax的总结及与L-Softmax的对比——SphereFace(29393)
2. Laplace(拉普拉斯)先验与L1正则化(23026)
3. L1正则化及其推导(22955)
4. MXNet之ps-lite及parameter server原理(13037)
5. ShuffleNet总结(12414)
评论排行榜
1. L1正则化及其推导(12)
2. Laplace(拉普拉斯)先验与L1正则化(5)
3. mxnet的训练过程——从python到C++(4)
4. mshadow的原理--MXNet(4)
5. 用MXNet实现mnist的生成对抗网络(GAN)(2)
最新评论
1. Re:Laplace(拉普拉斯)先验与L1正则化
式子1.4 第一行$\epsilon$应该改成$\delta$,第二行+应该是-吧
--earlzz
2. Re:L1正则化及其推导
您好,请问,“为了得到更直观的解,我们简化H,使得H为对角矩阵。” 这个怎么理解呢?
--土豆_potato
3. Re:L1正则化及其推导
写得不错,两个小错误有时间看到修下一下~1. "$sign(w_i)=sign(w^∗_i)或w_1=0$" 和 "这时有$w_1=0$" 的$w$下标应该都是$i$而不是$1$?2. 正如您的进一步...
--L,wang
4. Re:MXNet之ps-lite及parameter server原理
竟然看懂了,大爽
--Melanie_d
5. Re:用MXNet实现mnist的生成对抗网络(GAN)
@ wuye这个mxnet版本应该是1.0.0的,新的版本都有。这个GAN的原代码其实也在mxnet官方给上的样例上。...
--Thaurun
点击右上角即可分享