会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
chease
博客园
首页
新随笔
联系
订阅
管理
上一页
1
2
3
4
5
6
7
8
···
13
下一页
2020年12月31日
半监督学习
摘要: https://zhuanlan.zhihu.com/p/33196506 待 https://www.jiqizhixin.com/graph/technologies/11fab423-a92b-48d5-8212-79b1ecb46551
阅读全文
posted @ 2020-12-31 15:20 chease
阅读(64)
评论(0)
推荐(0)
2020年11月17日
自监督学习
摘要: 转自:https://zhuanlan.zhihu.com/p/108906502 1. 什么是自监督学习? 自监督学习主要是利用辅助任务(pretext)从大规模的无监督数据中挖掘自身的监督信息,通过这种构造的监督信息对网络进行训练,从而可以学习到对下游任务有价值的表征。 2.如何评测自监督学习的
阅读全文
posted @ 2020-11-17 19:54 chease
阅读(2351)
评论(0)
推荐(0)
2020年11月10日
leetcode相关
摘要: LeetCode按照怎样的顺序来刷题比较好? https://www.zhihu.com/question/36738189 https://blog.nowcoder.net/n/5002d9f20a3f4b8da8f9f1f24ba01b58 二叉树 https://juejin.im/post
阅读全文
posted @ 2020-11-10 10:34 chease
阅读(97)
评论(0)
推荐(0)
2020年10月20日
深度学习中的Normalization
摘要: 转自:https://zhuanlan.zhihu.com/p/33173246 https://zhuanlan.zhihu.com/p/55102378 深度学习中的norm主流方法包括Batch Normalization、Layer Normalization、Weight Normaliz
阅读全文
posted @ 2020-10-20 14:44 chease
阅读(322)
评论(0)
推荐(0)
2020年10月12日
TCN
摘要: 论文: https://arxiv.org/pdf/1803.01271.pdf github:https://github.com/locuslab/TCN 转自:http://nooverfit.com/wp/%E6%97%B6%E9%97%B4%E5%8D%B7%E7%A7%AF%E7%BD%
阅读全文
posted @ 2020-10-12 20:04 chease
阅读(974)
评论(0)
推荐(0)
2020年9月30日
用户行为序列相关
摘要: 转自:https://coladrill.github.io/2020/06/01/%E7%94%A8%E6%88%B7%E8%A1%8C%E4%B8%BA%E5%BA%8F%E5%88%97%E5%BB%BA%E6%A8%A1/ https://zhuanlan.zhihu.com/p/13813
阅读全文
posted @ 2020-09-30 16:45 chease
阅读(756)
评论(0)
推荐(0)
2020年9月24日
损失函数loss相关
摘要: Focal loss 参考: https://zhuanlan.zhihu.com/p/49981234 目标 通过减少易分类样本的权重,从而使得模型在训练时更专注于难分类的样本。 公式 论文实验中γ=2,a=0.25的效果最好
阅读全文
posted @ 2020-09-24 17:55 chease
阅读(181)
评论(0)
推荐(0)
2020年9月21日
神经网络work值得注意的点
摘要: 转自:https://zhuanlan.zhihu.com/p/29247151 1. 忘了数据规范化 What? 在使用神经网络的过程中,非常重要的一点是要考虑好怎样规范化(normalize)你的数据。 这一步不能马虎,不正确、仔细完成规范化的话,你的网络将会不能正常工作。 因为规范化数据这个重
阅读全文
posted @ 2020-09-21 20:01 chease
阅读(319)
评论(0)
推荐(0)
2020年9月15日
激活函数
摘要: 1、常用激活函数 Rectified Linear Unit(ReLU) - 用于隐层神经元输出 Sigmoid - 用于隐层神经元输出 Softmax - 用于多分类神经网络输出 Linear - 用于回归神经网络输出(或二分类问题) 常用激活函数介绍参考: https://blog.csdn.n
阅读全文
posted @ 2020-09-15 20:50 chease
阅读(208)
评论(0)
推荐(0)
2020年9月7日
高阶交叉特征相关模型-wide&deep Autoint Simclr
摘要: 叉乘(feature crosses): https://segmentfault.com/a/1190000014799038 、https://www.cnblogs.com/lightmare/p/10398788.html https://zhuanlan.zhihu.com/p/16435
阅读全文
posted @ 2020-09-07 20:03 chease
阅读(261)
评论(0)
推荐(0)
上一页
1
2
3
4
5
6
7
8
···
13
下一页
公告