上一页 1 ··· 22 23 24 25 26 27 28 29 30 ··· 236 下一页
摘要: 参考这篇文章: https://zhuanlan.zhihu.com/p/24337627 有研究表明深度模型具有较大的信息参数冗余。因此我们可以通过一定的技术方法对复杂的模型进行去冗余压缩。现有的压缩方法主要可以下四类: 浅层网络:通过设计一个更浅(层数较少)结构更紧凑的网络来实现对复杂模型效果的 阅读全文
posted @ 2022-03-04 17:55 blcblc 阅读(105) 评论(0) 推荐(0)
摘要: 前几天断更了,现在根据阅读的材料进行一些补充。 模型驱动 + 数据驱动 = 自然语言表示学习 sentiment classification entity extraction translation topic modeling 深度学习 = 表示学习 + 浅层学习 分布式表示:压缩、低维、稠密 阅读全文
posted @ 2022-03-04 17:18 blcblc 阅读(41) 评论(0) 推荐(0)
摘要: 注意力机制中的软和硬 注意力机制是当前深度学习领域比较流行的一个概念。其模仿人的视觉注意力模式,每次只关注与当前任务最相关的源域信息,使得信息的索取更为高效。 注意力机制已在语言模型、图像标注等诸多领域取得了突破进展。 注意力机制可分为软和硬两类: 软性注意力(Soft Attention)机制是指 阅读全文
posted @ 2022-03-04 16:49 blcblc 阅读(1050) 评论(0) 推荐(0)
摘要: 参考这篇文章: https://mp.weixin.qq.com/s/NUhfzxGaOJx_pSvYAT-pnQ 阅读全文
posted @ 2022-02-28 17:06 blcblc 阅读(45) 评论(0) 推荐(0)
摘要: 参考这篇文章: https://mp.weixin.qq.com/s/0WytNSBhqWeEWx1avXysiA 《搜索、推荐、广告中的曝光偏差问题》 最近在做的推荐版本里面也会针对曝光偏差进行优化。 机器学习本质上是在学习数据的分布, 其有效性的假设是模型 training 和 serving 阅读全文
posted @ 2022-02-27 22:25 blcblc 阅读(525) 评论(0) 推荐(0)
摘要: faiss: https://zhuanlan.zhihu.com/p/266589272 milvus: https://gitee.com/milvus-io/milvus catboost: https://zhuanlan.zhihu.com/p/102540344 阅读全文
posted @ 2022-02-25 19:49 blcblc 阅读(82) 评论(0) 推荐(0)
该文被密码保护。 阅读全文
posted @ 2022-02-24 20:23 blcblc 阅读(0) 评论(0) 推荐(0)
摘要: 高维稀疏数据进行快速相似查找,可以采用learning to hash,但高维稠密数据查找则采用annoy learning to hash 参考: https://blog.csdn.net/hero_fantao/article/details/70245284《海量数据相似查找系列1 -- M 阅读全文
posted @ 2022-02-24 17:30 blcblc 阅读(1488) 评论(0) 推荐(0)
摘要: 参考这篇文章: https://zhuanlan.zhihu.com/p/128988454 《谷歌最新双塔DNN召回模型——应用于YouTube大规模视频推荐场景》 https://zhuanlan.zhihu.com/p/93257390 《向量化召回在360信息流广告的实践》 先是第一篇: h 阅读全文
posted @ 2022-02-24 16:25 blcblc 阅读(1497) 评论(0) 推荐(0)
摘要: 参考这篇文章: https://zhuanlan.zhihu.com/p/146210155 《百度凤巢新一代广告召回系统——“莫比乌斯”》 从上面的训练流程图可以大致归结为如下几步: (1)首先从点击日志中加载一个batch的数据 (2)利用这一个batch的数据构建两个集合,即query集合和广 阅读全文
posted @ 2022-02-24 15:07 blcblc 阅读(458) 评论(0) 推荐(0)
上一页 1 ··· 22 23 24 25 26 27 28 29 30 ··· 236 下一页