李燕

  博客园 :: 首页 :: 博问 :: 闪存 :: 新随笔 :: 联系 :: 订阅 订阅 :: 管理 ::

2017年9月19日

摘要: 均值归一化可以让算法运行得更好。 现在考虑这样一个情况:一个用户对所有的电影都没有评分,即上图所示 的Eve用户。现在我们要学习特征向量(假设n=2) 以及用户5的向量θ(5),因为用户Eve没有对任何电影打分,所以前面的一项为0,只有后面正则化的项,所以影响θ取值的只有后面的θ的正则化的项。所以要 阅读全文
posted @ 2017-09-19 21:27 李燕 阅读(4095) 评论(0) 推荐(0) 编辑

摘要: 如上图中的predicted ratings矩阵可以分解成X与ΘT的乘积,这个叫做低秩矩阵分解。 我们先学习出product的特征参数向量,在实际应用中这些学习出来的参数向量可能比较难以理解,也很难可视化出来,但是它们是做为区分不同电影的特征 怎么来区分电影i与电影j是否相似呢?就是判断X(i)与X 阅读全文
posted @ 2017-09-19 20:21 李燕 阅读(833) 评论(0) 推荐(0) 编辑