Fork me on GitHub
摘要: 这里先占个坑 阅读全文
posted @ 2019-07-25 11:35 石头木 阅读(333) 评论(0) 推荐(0)
摘要: 1.阶跃函数 ,值域{0,1} 2.sigmoid函数 ,值域(0,1) 3.relu函数 ,值域[0,+∞) 4.leaky relu函数 ,值域R 5.tanh函数 ,值域(-1,1) 6.softmax函数 ,值域[0,1] 7.画图程序 阅读全文
posted @ 2019-07-24 23:09 石头木 阅读(451) 评论(0) 推荐(0)
摘要: 一.smote相关理论 (1). SMOTE是一种对普通过采样(oversampling)的一个改良。普通的过采样会使得训练集中有很多重复的样本。 SMOTE的全称是Synthetic Minority Over-Sampling Technique,译为“人工少数类过采样法”。 SMOTE没有直接 阅读全文
posted @ 2019-07-24 22:02 石头木 阅读(1398) 评论(0) 推荐(0)
摘要: 一般来説,wide&deep在ltr中作为点击预估模型,是一种pointwise方式,但是我们可以将其改为pairwise方式进行实验。待续... 阅读全文
posted @ 2019-07-24 14:41 石头木 阅读(481) 评论(0) 推荐(0)
摘要: deepfm可作为点击预估模型,最后一层一般为一个sigmoid函数,在ltr中称为pointwise,我们可以对其进行改造,与wide&deep一样,可将其改为pairwise方式,或者可以像lambdamart一样融入ndcg这种评估指标。待续... 阅读全文
posted @ 2019-07-24 14:41 石头木 阅读(871) 评论(0) 推荐(0)
摘要: 一. LTR(learning to rank)经常用于搜索排序中,开源工具中比较有名的是微软的ranklib,但是这个好像是单机版的,也有好长时间没有更新了。所以打算想利用lightgbm进行排序,但网上关于lightgbm用于排序的代码很少,关于回归和分类的倒是一堆。这里我将贴上python版的 阅读全文
posted @ 2019-07-24 11:52 石头木 阅读(8211) 评论(8) 推荐(2)
摘要: 一.论文《QuickScorer:a Fast Algorithm to Rank Documents with Additive Ensembles of Regression Trees》是为了解决LTR模型的预测问题,如果LTR中的LambdaMart在生成模型时产生的树数和叶结点过多,在对样 阅读全文
posted @ 2019-07-24 10:47 石头木 阅读(759) 评论(0) 推荐(0)
摘要: 关于网络训练时的参考建议: 1.train loss不断下降,test loss不断下降,网络正在学习 2.train loss不断下降,test loss趋于不变,网络过拟合,需要增大数据;减小网络规模dropout;权重衰减或正则化L2等 3.train loss趋于不变,test loss趋于 阅读全文
posted @ 2019-03-24 22:05 石头木 阅读(924) 评论(0) 推荐(0)
摘要: 在网上看到关于排序学习的早期文章,这两篇文章大致都使用了Random Forest和Boosting方法。 一.paper 1.Web-Search Ranking with Initialized Gradient Boosted Regression Trees,2011 主要将Random F 阅读全文
posted @ 2019-03-24 18:13 石头木 阅读(546) 评论(0) 推荐(0)
摘要: 一.理论部分 理论部分网上有许多,自己也简单的整理了一份,这几天会贴在这里,先把代码贴出,后续会优化一些写法,这里将训练数据写成dataset,dataloader样式。 排序学习所需的训练样本格式如下: 解释:其中第二列是query id,第一列表示此query id与这条样本的相关度(数字越大, 阅读全文
posted @ 2019-03-03 23:05 石头木 阅读(8200) 评论(0) 推荐(1)