博客园 - Earendil
uuid:24b78886-0ed1-41c2-8670-e3f31dcf42c4;id=126760
2021-06-14T07:14:35Z
Earendil
https://www.cnblogs.com/earendil/
feed.cnblogs.com
https://www.cnblogs.com/earendil/p/14882208.html
迁移学习 - Earendil
多展位信息的共享
2021-06-14T03:58:00Z
2021-06-14T03:58:00Z
Earendil
https://www.cnblogs.com/earendil/
【摘要】多展位信息的共享 <a href="https://www.cnblogs.com/earendil/p/14882208.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/earendil/p/12706517.html
如何消除推荐系统中的选择偏差 - Earendil
这个选择偏差(selection bias)主要是以信息流推荐为例来说的。在这里说的是由于展示位置等因素,虽然这个内容用户不一定很喜欢,但是还是点击了。去除选择偏差,就是考虑用户的点击互动行为多大程度是受展示位置的影响。一般来说信息流场景下,第一条的点击率,互动率是要高于之后的位置。统计发现,前三、
2020-04-15T09:02:00Z
2020-04-15T09:02:00Z
Earendil
https://www.cnblogs.com/earendil/
【摘要】这个选择偏差(selection bias)主要是以信息流推荐为例来说的。在这里说的是由于展示位置等因素,虽然这个内容用户不一定很喜欢,但是还是点击了。去除选择偏差,就是考虑用户的点击互动行为多大程度是受展示位置的影响。一般来说信息流场景下,第一条的点击率,互动率是要高于之后的位置。统计发现,前三、 <a href="https://www.cnblogs.com/earendil/p/12706517.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/earendil/p/11878459.html
自己学习工作中对推荐系统的一些简单了解(未完待续) - Earendil
目前在做短视频推荐,干了一段时间做些总结。 1、多目标模型 目前rank和recall 所使用的神经网络模型大体结构都是deep&wide+多目标。目前实现多目标的时候会使用底层参数共享,共享的参数有些是仅限于底层的embedding层,有些会包含一些MLP层。 参数共享可以使模型在预测户互动行为也
2019-11-17T13:41:00Z
2019-11-17T13:41:00Z
Earendil
https://www.cnblogs.com/earendil/
【摘要】目前在做短视频推荐,干了一段时间做些总结。 1、多目标模型 目前rank和recall 所使用的神经网络模型大体结构都是deep&wide+多目标。目前实现多目标的时候会使用底层参数共享,共享的参数有些是仅限于底层的embedding层,有些会包含一些MLP层。 参数共享可以使模型在预测户互动行为也 <a href="https://www.cnblogs.com/earendil/p/11878459.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/earendil/p/11008712.html
[转] TextCNN调参技巧 - Earendil
原文地址: https://plushunter.github.io/2018/02/26/%E8%87%AA%E7%84%B6%E8%AF%AD%E8%A8%80%E5%A4%84%E7%90%86%E7%B3%BB%E5%88%97%EF%BC%887%EF%BC%89%EF%BC%9AText
2019-06-12T03:47:00Z
2019-06-12T03:47:00Z
Earendil
https://www.cnblogs.com/earendil/
【摘要】原文地址: https://plushunter.github.io/2018/02/26/%E8%87%AA%E7%84%B6%E8%AF%AD%E8%A8%80%E5%A4%84%E7%90%86%E7%B3%BB%E5%88%97%EF%BC%887%EF%BC%89%EF%BC%9AText <a href="https://www.cnblogs.com/earendil/p/11008712.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/earendil/p/10819394.html
Line 算法与deepwalk的对比 和个人理解 - Earendil
用户的关注关系本身就是一个图结构,要从用户关注关系生成用户的embedding表示,其实就是做graph的emebding表示。 deepwalk+word2vec 比较简单,效果也还可以。这种方法再此不再介绍。 接下里记下我对line算法的一些理解。 先说line算法要解决的问题。 1、需要能够表
2019-05-06T06:25:00Z
2019-05-06T06:25:00Z
Earendil
https://www.cnblogs.com/earendil/
【摘要】用户的关注关系本身就是一个图结构,要从用户关注关系生成用户的embedding表示,其实就是做graph的emebding表示。 deepwalk+word2vec 比较简单,效果也还可以。这种方法再此不再介绍。 接下里记下我对line算法的一些理解。 先说line算法要解决的问题。 1、需要能够表 <a href="https://www.cnblogs.com/earendil/p/10819394.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/earendil/p/10772972.html
TensorFlow实现FM - Earendil
看了网上的一些用tf实现的FM,很多都没有考虑FM实际使用中数据样本稀疏的问题。 我在实现的时候使用 embedding_lookup_sparse来解决这个问题。 对于二阶部分,由于embedding_lookup_sparse没法计算 和的平方 和 平方的和,我参考embedding_looku
2019-04-26T02:44:00Z
2019-04-26T02:44:00Z
Earendil
https://www.cnblogs.com/earendil/
【摘要】看了网上的一些用tf实现的FM,很多都没有考虑FM实际使用中数据样本稀疏的问题。 我在实现的时候使用 embedding_lookup_sparse来解决这个问题。 对于二阶部分,由于embedding_lookup_sparse没法计算 和的平方 和 平方的和,我参考embedding_looku <a href="https://www.cnblogs.com/earendil/p/10772972.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/earendil/p/10496218.html
Angel 实现FFM 一、对于Angel 和分布式机器学习的简单了解 - Earendil
Angel是腾讯开源的一个分布式机器学习框架。是一个PS模式的分布式机器学习框架。 https://github.com/Angel-ML/angel 这是github地址。 我了解的分布式机器学习概述: 对于分布式机器学习,有些简单的了解,听过一些概念。最近正在看《分布式机器学习 算法、理论与实践
2019-03-08T07:42:00Z
2019-03-08T07:42:00Z
Earendil
https://www.cnblogs.com/earendil/
【摘要】Angel是腾讯开源的一个分布式机器学习框架。是一个PS模式的分布式机器学习框架。 https://github.com/Angel-ML/angel 这是github地址。 我了解的分布式机器学习概述: 对于分布式机器学习,有些简单的了解,听过一些概念。最近正在看《分布式机器学习 算法、理论与实践 <a href="https://www.cnblogs.com/earendil/p/10496218.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/earendil/p/10465637.html
google tensorflow bert代码分析 - Earendil
参考网上博客阅读了bert的代码,记个笔记。代码是 bert_modeling.py 参考的博客地址: https://blog.csdn.net/weixin_39470744/article/details/84401339 https://www.jianshu.com/p/2a3872148
2019-03-03T06:44:00Z
2019-03-03T06:44:00Z
Earendil
https://www.cnblogs.com/earendil/
【摘要】参考网上博客阅读了bert的代码,记个笔记。代码是 bert_modeling.py 参考的博客地址: https://blog.csdn.net/weixin_39470744/article/details/84401339 https://www.jianshu.com/p/2a3872148 <a href="https://www.cnblogs.com/earendil/p/10465637.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/earendil/p/10456623.html
Bert学习资料 - Earendil
首先是Bert的论文和 attention is all you need的论文 然后是:将nlp预训练 迁移学习的发展从word2vec 到elmo bert https://mp.weixin.qq.com/s/Rd3-ypRYiJObi-e2JDeOjQ https://mp.weixin.q
2019-03-01T07:24:00Z
2019-03-01T07:24:00Z
Earendil
https://www.cnblogs.com/earendil/
【摘要】首先是Bert的论文和 attention is all you need的论文 然后是:将nlp预训练 迁移学习的发展从word2vec 到elmo bert https://mp.weixin.qq.com/s/Rd3-ypRYiJObi-e2JDeOjQ https://mp.weixin.q <a href="https://www.cnblogs.com/earendil/p/10456623.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/earendil/p/10375722.html
Tensorboard 的使用笔记 - Earendil
参考的教程: https://www.tensorflow.org/guide/summaries_and_tensorboard 遇到的错误: File "/usr/local/lib/python3.5/dist-packages/tensorboard/util.py", line 50, i
2019-02-14T09:18:00Z
2019-02-14T09:18:00Z
Earendil
https://www.cnblogs.com/earendil/
【摘要】参考的教程: https://www.tensorflow.org/guide/summaries_and_tensorboard 遇到的错误: File "/usr/local/lib/python3.5/dist-packages/tensorboard/util.py", line 50, i <a href="https://www.cnblogs.com/earendil/p/10375722.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/earendil/p/10034383.html
利用Minhash和LSH寻找相似的集合(转) - Earendil
问题背景 给出N个集合,找到相似的集合对,如何实现呢?直观的方法是比较任意两个集合。那么可以十分精确的找到每一对相似的集合,但是时间复杂度是O(n2)。当N比较小时,比如K级,此算法可以在接受的时间范围内完成,但是如果N变大时,比B级,甚至P级,那么需要的时间是不能够被接受的。比如N= 1B = 1
2018-11-28T12:20:00Z
2018-11-28T12:20:00Z
Earendil
https://www.cnblogs.com/earendil/
【摘要】问题背景 给出N个集合,找到相似的集合对,如何实现呢?直观的方法是比较任意两个集合。那么可以十分精确的找到每一对相似的集合,但是时间复杂度是O(n2)。当N比较小时,比如K级,此算法可以在接受的时间范围内完成,但是如果N变大时,比B级,甚至P级,那么需要的时间是不能够被接受的。比如N= 1B = 1 <a href="https://www.cnblogs.com/earendil/p/10034383.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/earendil/p/10000734.html
保序回归算法步骤 - Earendil
保序回归 1 保序回归 保序回归解决了下面的问题:给定包含n个数据点的序列 y_1,y_2,...,y_n , 怎样通过一个单调的序列 beta_1,beta_2,...,beta_n 来归纳这个问题。形式上,这个问题就是为了找到 大部分时候,我们会在括号前加上权重w_i。解决这个问题的一个方法就是
2018-11-22T06:10:00Z
2018-11-22T06:10:00Z
Earendil
https://www.cnblogs.com/earendil/
【摘要】保序回归 1 保序回归 保序回归解决了下面的问题:给定包含n个数据点的序列 y_1,y_2,...,y_n , 怎样通过一个单调的序列 beta_1,beta_2,...,beta_n 来归纳这个问题。形式上,这个问题就是为了找到 大部分时候,我们会在括号前加上权重w_i。解决这个问题的一个方法就是 <a href="https://www.cnblogs.com/earendil/p/10000734.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/earendil/p/9969275.html
tenserflow models包的安装 123 - Earendil
1、下载 models包 https://github.com/tensorflow/models 2、将models包拷贝到本机Python包的安装地址即可,本机Python包的安装地址的查看方式可以通过 在Python 终端 import 一个已经安装的包,再打印下,例如 >>import nu
2018-11-16T06:48:00Z
2018-11-16T06:48:00Z
Earendil
https://www.cnblogs.com/earendil/
【摘要】1、下载 models包 https://github.com/tensorflow/models 2、将models包拷贝到本机Python包的安装地址即可,本机Python包的安装地址的查看方式可以通过 在Python 终端 import 一个已经安装的包,再打印下,例如 >>import nu <a href="https://www.cnblogs.com/earendil/p/9969275.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/earendil/p/9969265.html
tenserflow models包的安装 - Earendil
1、下载 models包 https://github.com/tensorflow/models 2、将models包拷贝到本机Python包的安装地址即可,本机Python包的安装地址的查看方式可以通过 在Python 终端 import 一个已经安装的包,再打印下,例如 >>import nu
2018-11-16T06:47:00Z
2018-11-16T06:47:00Z
Earendil
https://www.cnblogs.com/earendil/
【摘要】1、下载 models包 https://github.com/tensorflow/models 2、将models包拷贝到本机Python包的安装地址即可,本机Python包的安装地址的查看方式可以通过 在Python 终端 import 一个已经安装的包,再打印下,例如 >>import nu <a href="https://www.cnblogs.com/earendil/p/9969265.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/earendil/p/9675393.html
CTR校准 - Earendil
通常我们在做CTR预估的时候,预估值会与真是的CTR有偏差,这种偏差可能来自于负采样,可能是因为模型的问题。 CTR预估值与真实值有偏差,并不会影响AUC指标和排序,但是实际使用中往往需要CTR的预估值不仅仅是做到有序,即正样本排在负样本前面,而且需要保证有一定的区分度。这涉及到一个概念保序和保距。
2018-09-19T08:46:00Z
2018-09-19T08:46:00Z
Earendil
https://www.cnblogs.com/earendil/
【摘要】通常我们在做CTR预估的时候,预估值会与真是的CTR有偏差,这种偏差可能来自于负采样,可能是因为模型的问题。 CTR预估值与真实值有偏差,并不会影响AUC指标和排序,但是实际使用中往往需要CTR的预估值不仅仅是做到有序,即正样本排在负样本前面,而且需要保证有一定的区分度。这涉及到一个概念保序和保距。 <a href="https://www.cnblogs.com/earendil/p/9675393.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/earendil/p/9469511.html
FTRL 使用tensorflow的实现 - Earendil
import tensorflow as tfimport numpy as npfrom sklearn import metricsfrom sklearn.datasets import load_svmlight_filefrom sklearn.utils import shuffle#
2018-08-13T09:14:00Z
2018-08-13T09:14:00Z
Earendil
https://www.cnblogs.com/earendil/
【摘要】import tensorflow as tfimport numpy as npfrom sklearn import metricsfrom sklearn.datasets import load_svmlight_filefrom sklearn.utils import shuffle# <a href="https://www.cnblogs.com/earendil/p/9469511.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/earendil/p/9400275.html
深入理解AUC - Earendil
https://tracholar.github.io/machine-learning/2018/01/26/auc.html 我觉得作者写的很不错
2018-08-01T03:25:00Z
2018-08-01T03:25:00Z
Earendil
https://www.cnblogs.com/earendil/
【摘要】https://tracholar.github.io/machine-learning/2018/01/26/auc.html 我觉得作者写的很不错 <a href="https://www.cnblogs.com/earendil/p/9400275.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/earendil/p/9313475.html
tensorflow wide deep 介绍 - Earendil
https://blog.csdn.net/heyc861221/article/details/80131369 https://blog.csdn.net/heyc861221/article/details/80131369
2018-07-15T06:19:00Z
2018-07-15T06:19:00Z
Earendil
https://www.cnblogs.com/earendil/
【摘要】https://blog.csdn.net/heyc861221/article/details/80131369 https://blog.csdn.net/heyc861221/article/details/80131369 <a href="https://www.cnblogs.com/earendil/p/9313475.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/earendil/p/9277370.html
什么是卷积神经网络?为什么它们很重要? - Earendil
原文地址:http://www.hackcv.com/index.php/archives/104/?hmsr=toutiao.io&utm_medium=toutiao.io&utm_source=toutiao.io 卷积神经网络的四个基本操作: 1、卷积 2、非线性处理(Relu) 3、赤化或
2018-07-07T07:22:00Z
2018-07-07T07:22:00Z
Earendil
https://www.cnblogs.com/earendil/
【摘要】原文地址:http://www.hackcv.com/index.php/archives/104/?hmsr=toutiao.io&utm_medium=toutiao.io&utm_source=toutiao.io 卷积神经网络的四个基本操作: 1、卷积 2、非线性处理(Relu) 3、赤化或 <a href="https://www.cnblogs.com/earendil/p/9277370.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/earendil/p/9269596.html
深度学习中 Batch Normalization为什么效果好 - Earendil
看mnist数据集上其他人的CNN模型时了解到了Batch Normalization 这种操作。效果还不错,至少对于训练速度提升了很多。 batch normalization的做法是把数据转换为0均值和单位方差 这里分五部分简单解释一下Batch Normalization (BN)。1. Wh
2018-07-05T09:32:00Z
2018-07-05T09:32:00Z
Earendil
https://www.cnblogs.com/earendil/
【摘要】看mnist数据集上其他人的CNN模型时了解到了Batch Normalization 这种操作。效果还不错,至少对于训练速度提升了很多。 batch normalization的做法是把数据转换为0均值和单位方差 这里分五部分简单解释一下Batch Normalization (BN)。1. Wh <a href="https://www.cnblogs.com/earendil/p/9269596.html" target="_blank">阅读全文</a>