会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
臭咸鱼
祝你天天开心啊!
首页
联系
管理
1
2
3
4
5
···
17
下一页
[置顶]
博客园已停更!请关注知乎和微信公众号:臭咸鱼
摘要: 快来关注!入股不亏!
阅读全文
posted @ 2020-04-05 17:22 臭咸鱼
阅读(636)
评论(3)
推荐(1)
2021年7月27日
最近被旷视的YOLOX刷屏了!
摘要:
阅读全文
posted @ 2021-07-27 13:17 臭咸鱼
阅读(3171)
评论(0)
推荐(1)
2021年6月22日
李宏毅机器学习课程笔记-15.2无监督学习之主成分分析
摘要: 主成分分析即Principal Component Analysis,PCA,它是一种线性降维方法。 主成分分析(1) PCA即主成分分析(Principe Component Analysis)。PCA假设降维函数是一个linear function,即输入$x$和输出$z$之间是linear t
阅读全文
posted @ 2021-06-22 10:01 臭咸鱼
阅读(346)
评论(0)
推荐(0)
2021年6月13日
李宏毅机器学习课程笔记-15.1无监督学习简介
摘要: 无监督学习(Unsupervised Learning)可以分为两类: 化繁为简 聚类(Clustering) 降维(Dimension Reduction) 无中生有 生成(Generation) 在无监督学习(Unsupervised Learning)中,数据集中通常只有$(x,\hat y)
阅读全文
posted @ 2021-06-13 09:07 臭咸鱼
阅读(309)
评论(0)
推荐(0)
2021年5月31日
Boundary Aware PoolNet(3):Boundary Aware PoolNet模型与代码介绍
摘要: Boundary Aware PoolNet = PoolNet + BASNet,即使用BASNet中的Deep Supervision策略和Hybrid Loss改进PoolNet。 前面两篇文章分别介绍了PoolNet的模型及其代码、BASNet中的深度监督策略和混合损失函数,现在让我们看向P
阅读全文
posted @ 2021-05-31 15:00 臭咸鱼
阅读(251)
评论(0)
推荐(0)
Boundary Aware PoolNet(2):BASNet模型与代码介绍
摘要: Boundary Aware PoolNet = PoolNet + BASNet,即使用BASNet中的Deep Supervision策略和Hybrid Loss改进PoolNet。 为理解Boundary Aware PoolNet,我们并不需要学习整个BASNet,只需要了解其中的Deep
阅读全文
posted @ 2021-05-31 14:59 臭咸鱼
阅读(326)
评论(0)
推荐(0)
Boundary Aware PoolNet(1):PoolNet模型与代码介绍
摘要: Boundary Aware PoolNet = PoolNet + BASNet,即使用BASNet中的Deep Supervision策略和Hybrid Loss改进PoolNet。 为理解Boundary Aware PoolNet还是需要全面理解PoolNet的,因此本文将对PoolNet的
阅读全文
posted @ 2021-05-31 14:58 臭咸鱼
阅读(641)
评论(0)
推荐(0)
Boundary Aware PoolNet:基于PoolNet和BASNet的显著性目标检测
摘要: Boundary-Aware-PoolNet Boundary Aware PoolNet = PoolNet + BASNet : Deeply supervised PoolNet using the hybrid loss in BASNet for Salient Object Detect
阅读全文
posted @ 2021-05-31 14:55 臭咸鱼
阅读(395)
评论(0)
推荐(0)
2021年5月23日
李宏毅机器学习课程笔记-14.4 Seq2Seq:Transformer
摘要: transformer最知名的应用就是BERT,BERT就是无监督训练的transformer,transformer就是具有Self-attention的Seq2Seq模型。 RNN常用于处理输入和输出都是sequence的任务,因为RNN是通过遍历输入的sequence而逐步输出一个sequen
阅读全文
posted @ 2021-05-23 09:11 臭咸鱼
阅读(263)
评论(0)
推荐(0)
2021年5月22日
李宏毅机器学习课程笔记-14.3 Seq2Seq:Tips for Generation
摘要: 在训练一个可以产生句子的网络时,有哪些技巧呢? Bad Attention 假如要做video的caption generation,某视频有4个frame,即有4个时刻的图片。 用$\alpha^i_t$表示attention weight,其上标表示frame的索引、下标表示时刻的索引。在第1个
阅读全文
posted @ 2021-05-22 10:06 臭咸鱼
阅读(131)
评论(0)
推荐(0)
2021年5月20日
李宏毅机器学习课程笔记-14.2 Seq2Seq:Attention
摘要: 输入和输出都是sequence的任务都是一种Sequence-to-sequence Learning,简称Seq2Seq。 Attention其实是一种Dynamic Conditional Generation。在前文描述的Conditional Generation中,我们在每个时间点都将En
阅读全文
posted @ 2021-05-20 09:30 臭咸鱼
阅读(263)
评论(0)
推荐(0)
2021年5月19日
李宏毅机器学习课程笔记-14.1 Seq2Seq:Conditional Generation
摘要: 基于RNN的Generation 可以用RNN生成一个word、sentence、图片等等。 一个word有多个character组成,因此RNN每次生成一个character。一个sentence由多个word组成,因此RNN每次生成一个word。一张图片由多个像素组成,因此RNN每次生成一个像素
阅读全文
posted @ 2021-05-19 10:06 臭咸鱼
阅读(190)
评论(0)
推荐(0)
2021年5月8日
李宏毅机器学习课程笔记-13.6模型压缩代码实战
摘要: 本文为作者学习李宏毅机器学习课程时参照样例完成homework7的记录。 代码仓库:chouxianyu/LHY_ML2020_Codes,里面除了代码还有数据、PPT、笔记等资源喔~ 任务描述 通过Architecture Design、Knowledge Distillation、Network
阅读全文
posted @ 2021-05-08 08:07 臭咸鱼
阅读(410)
评论(0)
推荐(0)
2021年5月7日
李宏毅机器学习课程笔记-13.5模型压缩之动态计算
摘要: 动态计算(Dynamic Computation)就是资源充足时就做到最好,资源不足时就减少运算量、先求有再求好(但也不要太差)。 一种方法是训练多个从小到大的model,然后选择合适的模型,这样的问题是需要存储很多个model。 另外一种方法是,训练一个在中间层就可以得到最终结果的model。因为
阅读全文
posted @ 2021-05-07 11:30 臭咸鱼
阅读(131)
评论(0)
推荐(0)
2021年5月6日
李宏毅机器学习课程笔记-13.4模型压缩之架构设计
摘要: 调整Network的架构设计(Architecture Design),让它变得只需要比较少的参数,这是在实际操作中最有效的做法。 Low Rank Approximation 如果是Fully Connected Network,前一层和后一层分别有N、M个neuron则需要$N\times M$
阅读全文
posted @ 2021-05-06 08:28 臭咸鱼
阅读(217)
评论(0)
推荐(0)
2021年5月5日
李宏毅机器学习课程笔记-13.3模型压缩之参数量化
摘要: 参数量化就是Parameter Quantization。 用更少的bit表示一个value 比如说本来用32位表示一个weight,现在用16位表示一个weight,这样就缩小了一半。 Weight Clustering 根据weight的值对weight进行聚类,每个类中的weight都用同一个
阅读全文
posted @ 2021-05-05 09:54 臭咸鱼
阅读(405)
评论(0)
推荐(0)
1
2
3
4
5
···
17
下一页
公告