12 2012 档案

摘要:先验概率(prior probability): 对一个假设(hypothesis)/事件 发生已知的概率,记为P(h)。如: 抛一枚硬币,证明朝上的先验概率是 P(h) = 0.5后验概率(posterior probability): 在特定数据/情景下,某事件发生的概率, 记为P(h|d).P(D): 某事/条件出现的概率P(D|h): 在h发生时, 某事出现的概率。贝叶斯公式: P(h|D)= ( P(D|h) * P(h) ) / P(D) 或 P(B|A) = P(AB)/P(A) , 在做分类时,由于P(D)都是一样的,所有可以不计算, P(h|D)≈ P(D|h) * P(h) 阅读全文
posted @ 2012-12-16 20:13 酱油哥 阅读(220) 评论(0) 推荐(0)
摘要:书接上文推荐学习笔记-协同过滤显式数据: 用户的评分,like or unlike等隐式数据: 用户点击,购买记录,在某个页面停留时间,播放次数等调整的余弦相似度:,对于用户每个评分都要减去该用户平均评分作为他的最终评分,然后计算相似度Slope One:解释是一个物品别人的评分比另一个物品高,那给你的预测也是如此。分两步:第一步,算出所有物品两两之间的偏差(deviation)。 第二步,做出预测,比如你评分A为3分,而B物品评分比A高一分,所以预测你对B物品的评分是4分。第一步计算的公式是用户对j物品的评分减去i物品的评分之和 除以对这两物品评分的用户总数。card(Sj,i(X)) 是同 阅读全文
posted @ 2012-12-07 22:13 酱油哥 阅读(153) 评论(0) 推荐(0)
摘要:协同过滤是推荐系统中用的比较多的算法,也是容易理解较简单的算法,而且效果也不错。协同过滤又分为:item-based collaborative filtering: 喜欢这个物品的人还喜欢什么, 代表有amazonuser-based collaborative filtering: 和我相似的人还喜欢什么, 代表有digg两种方法计算类似,先要找出相似的item或user。计算相似度(距离)的方法也不少,列举一下:(参考http://www.chinaz.com/web/2011/1008/212684.shtml)曼哈顿距离:∑|xi- yi|, 就是每个维度之差相加欧几理德距离: sq 阅读全文
posted @ 2012-12-04 23:31 酱油哥 阅读(252) 评论(0) 推荐(0)
摘要:正交矩阵: 它的转置矩阵就是它的逆矩阵, QTQ = QQT= I对角矩阵: 方阵M所有非主对角线元素全等于零的矩阵。 (主对角线元素: 元素两个下标相等)svd, 奇异值分解: 矩阵M = UΣVT, U和V是正交矩阵,Σ是非负对角阵,Σ对角线上的元素即为M的奇异值。M 是m*n, U是m*m,Σ是m*n, VT是n*n特征值与特征向量:Αξ =λξ,在变换的作用下,向量仅仅在尺度上变为原来的倍。称是A的一个特征向量,是对应的特征值。所有具有相同的特征值的特征向量和零向量一起,组成了一个向量空间,称为线性变换的一个特征空间。特征值分解: A是N*N方阵, 且有N个线性无关的特征向量, A = 阅读全文
posted @ 2012-12-03 00:44 酱油哥 阅读(303) 评论(0) 推荐(0)