会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
xd_xumaomao
博客园
首页
新随笔
联系
管理
订阅
上一页
1
···
33
34
35
36
37
38
39
40
41
下一页
2019年7月28日
priority_queue
摘要: 参考博客 https://blog.csdn.net/weixin_36888577/article/details/79937886
阅读全文
posted @ 2019-07-28 12:17 AI_Engineer
阅读(160)
评论(0)
推荐(0)
2019年7月27日
正则表达式
摘要: 常用匹配规则 基本正则表达式 正则表达式:REGular EXPression, REGEXP 元字符:.: 匹配任意单个字符[]: 匹配指定范围内的任意单个字符[^]:匹配指定范围外的任意单个字符 字符集合:[:digit:], [:lower:], [:upper:], [:punct:], [
阅读全文
posted @ 2019-07-27 16:51 AI_Engineer
阅读(164)
评论(0)
推荐(0)
2019年7月23日
深度学习权重初始化
摘要: https://zhuanlan.zhihu.com/p/565740768 什么样的初始化是好的? https://zhuanlan.zhihu.com/p/138064188 正向传播时,状态值的方差保持不变;反向传播时,关于激活值的梯度的方差保持不变的好处是什么? 防止出现极端值导致梯度消失或
阅读全文
posted @ 2019-07-23 19:52 AI_Engineer
阅读(413)
评论(0)
推荐(0)
隐语义模型(LFM)
摘要: 参考资料 《推荐系统实践》项亮
阅读全文
posted @ 2019-07-23 10:30 AI_Engineer
阅读(293)
评论(0)
推荐(0)
2019年7月22日
leetcode经典题
摘要: leetcode 31 下一个排列 实现获取下一个排列的函数,算法需要将给定数字序列重新排列成字典序中下一个更大的排列。 如果不存在下一个更大的排列,则将数字重新排列成最小的排列(即升序排列)。 必须原地修改,只允许使用额外常数空间。 以下是一些例子,输入位于左侧列,其相应输出位于右侧列。1,2,3
阅读全文
posted @ 2019-07-22 21:33 AI_Engineer
阅读(890)
评论(0)
推荐(0)
2019年7月18日
显性反馈和隐性反馈
摘要: 推荐系统的用户行为分为显性反馈和隐性反馈 ,显性反馈数据集可以明确区分正负样本(如评分数据);隐性反馈数据集只有正样本(用户喜欢什么),没有负样本(用户不喜欢什么)。 隐性反馈数据集上生成负样本的方法: (1)对于一个用户,用他所有没有过行为的物品作为负样本。 (2)对于一个用户,从他没有过行为的物
阅读全文
posted @ 2019-07-18 10:35 AI_Engineer
阅读(1170)
评论(0)
推荐(0)
2019年7月15日
sort
摘要: sort(a,a+n); bool comp(const int &a,const int &b) { return a>b; } bool Comp(const P &a1,const P &a2) { return a1.w<a2.w;//从小到大 } //对vector排序 sort(v.be
阅读全文
posted @ 2019-07-15 20:02 AI_Engineer
阅读(140)
评论(0)
推荐(0)
C++vector,stack,queue,deque, list基本使用
摘要: vector 初始化 (1)vector<int> a(10); //定义了10个整型元素的向量(尖括号中为元素类型名,它可以是任何合法的数据类型),但没有给出初值,其值是不确定的。 (2)vector<int> a(10,1); //定义了10个整型元素的向量,且给出每个元素的初值为1 (3)ve
阅读全文
posted @ 2019-07-15 19:55 AI_Engineer
阅读(1118)
评论(0)
推荐(0)
2019年7月13日
一阶优化方法比较
摘要: SGD 权重更新公式 \[W \leftarrow W - \eta \frac{{\partial L}}{W}\] SGD的缺点 学习率的设置非常需要技巧,学习率设置的过大,容易跳过最优点,学习率设的过小,又容易困于局部最优或鞍点,所以一般要设置一个随着训练批次衰减的学习率 所有特征的学习率都一
阅读全文
posted @ 2019-07-13 23:55 AI_Engineer
阅读(1480)
评论(0)
推荐(0)
BGD,SGD比较
摘要: BGD每次迭代都用了所有的样本,每一轮都是朝着极小值方向更新的,当函数只有一个极小值点时BGD能过够比较快的收敛的全局最优,当函数有多个极小值点时BGD容易陷入局部最优,而且当数据量很大时BDG需要消耗大量的内存,计算代价也会很高。SGD每次只用小批量的数据来计算,内存消耗小,计算代价也更低,而且S
阅读全文
posted @ 2019-07-13 20:53 AI_Engineer
阅读(869)
评论(0)
推荐(0)
上一页
1
···
33
34
35
36
37
38
39
40
41
下一页
公告