the train of thought of collaborative filtering matrix factarization

1.参考文章:https://blog.csdn.net/manduner/article/details/80564414

秩是图像经过矩阵变换之后的空间维度,是列空间的维度。

 

矩阵的秩度量就是矩阵的行列之间的相关性

如果矩阵之间的各行的相关性很强,那么就表示这个矩阵实际可以投影到更低维的线性子空间,也就是用几个向量就可以完全表达了,它就是低秩的。

如果X是一个m行n列的数值矩阵,rank(X)是X的秩,假如rank (X)远小于m和n,则我们称X是低秩矩阵。低秩矩阵每行或每列都可以用其他的行或列线性表出,可见它包含大量的冗余信息。利用这种冗余信息,可以对缺失数据进行恢复,也可以对数据进行特征提取。

2.机器学习PCA(Principal component) 主成分分析

通俗理解PCA降维作用:https://blog.csdn.net/HLBoy_happy/article/details/77146012

主成分可以通过两种方法计算:1.计算数据协方差矩阵 2.用数据矩阵的奇异值分解来找到协方差矩阵的特征向量和特征值的平方根

于是引入奇异值分解SVD

3.奇异值分解(SVD)原理与在降维中的应用

http://www.cnblogs.com/pinard/p/6251584.html

奇异值很小的比如0.00000000000000000001,该项在k行,则从k行就可以不要了

 

4.机器学习中ALS

https://blog.csdn.net/lingerlanlan/article/details/44085913?utm_source=blogkpcl10

 

posted @ 2018-10-26 09:14  hotMemo  阅读(127)  评论(0编辑  收藏  举报