摘要: 最开始记录博客是在博客园这里的,后来又接触到CSDN,个人感觉博客园界面比较简陋,风格比较偏古板,似乎很久没有更新的样子,CSDN界面模块丰富,后来决定把博客搬迁到CSDN,于是用到了CSDN里面的博客搬家功能。CSDN用了几个月之后感觉在流量方面不能和博客园比啊。 CSDN里面: 而博客园里面: 阅读全文
posted @ 2017-06-19 21:40 赵大寳Note 阅读(1321) 评论(1) 推荐(0) 编辑
摘要: 将博客搬至CSDN:http://blog.csdn.net/u010412858 阅读全文
posted @ 2017-03-21 00:44 赵大寳Note 阅读(111) 评论(0) 推荐(0) 编辑
摘要: https://www.quora.com/Machine-Learning/What-are-hyperparameters-in-machine-learning 阅读全文
posted @ 2016-12-19 14:45 赵大寳Note 阅读(1258) 评论(0) 推荐(1) 编辑
摘要: 心好累,从最开始的32位Python2.7,做MovieLens1M试验就直接内存报错了,后来换成了64位Python2.7,最近做文本读取试验又遇到编码问题,另一台电脑的64位Python却没问题,这里索性把自己的主要Python开发环境换成64为Python3.5,那就记录下来吧,以后还是用最新 阅读全文
posted @ 2016-11-24 10:56 赵大寳Note 阅读(183) 评论(0) 推荐(0) 编辑
摘要: 1. 基于相似用户的KNN 选用公式如下: 2. 基于相似物品的KNN 要求: 1. 纯PYTHON代码实现 2. 利用SKLEARN开发包实验 实验要求: 1. 数据集: Movielens1M, Movielens100k 2. 评价指标: RMSE, 均方根误差(root mean squar 阅读全文
posted @ 2016-11-12 16:18 赵大寳Note 阅读(3094) 评论(0) 推荐(0) 编辑
摘要: 本文试验前期准备: 本文试验内容翻译自:http://blog.ethanrosenthal.com/2015/11/02/intro-to-collaborative-filtering/ Sparsity: 6.30% 数据稀疏度:6.3% 分别计算user相似性和item相似性,并输出item 阅读全文
posted @ 2016-11-09 00:49 赵大寳Note 阅读(1223) 评论(0) 推荐(0) 编辑
摘要: KNN求相似用户或相似项目,根据相似用户或项目来辅助预测用户对项目的评分,指标一般是RMSE MAETOPN,可以理解为,在预测用户对未选择项目的评分,然后排序, 取前TOPN个项目(用户没有选择过的)推荐给用户,看命中率,指标一般是RECALL PRECISION AUC TopN和kNN目的不同 阅读全文
posted @ 2016-11-07 16:05 赵大寳Note 阅读(1454) 评论(0) 推荐(0) 编辑
摘要: http://daniellife.blog.163.com/blog/static/241442066201493011435920/ 阅读全文
posted @ 2016-10-26 16:15 赵大寳Note 阅读(362) 评论(0) 推荐(0) 编辑
摘要: K-Means K-Medoids 初始据点随机选取 初始随机据点限定在样本点中 使用Means(均值)作为聚点,对outliers(极值)很敏感 使用Medoids(中位数)作为聚点 对数据要求高,要求数据点处于欧式空间中 可适用类别(categorical)类型的特征——(4) 时间复杂度:O( 阅读全文
posted @ 2016-10-13 00:15 赵大寳Note 阅读(8469) 评论(1) 推荐(0) 编辑
该文被密码保护。 阅读全文
posted @ 2016-10-12 20:33 赵大寳Note 阅读(1) 评论(0) 推荐(0) 编辑