会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
古幽月兮
博客园
首页
新随笔
联系
订阅
管理
2023年4月2日
组会小结20230328
摘要: 组会论文小结
阅读全文
posted @ 2023-04-02 11:30 古幽月兮
阅读(185)
评论(0)
推荐(0)
2023年2月13日
20230210组会论文学习心得
摘要: 五篇论文简要学习心得
阅读全文
posted @ 2023-02-13 18:04 古幽月兮
阅读(631)
评论(0)
推荐(0)
2021年10月24日
第七周:论文泛读(二)
摘要: 1、《BAM: Bottleneck Attention Module》 在这篇文章中,作者提出了新的Attention模型——瓶颈注意模块,通过分离的两个路径channel和spatial得到attention map,减少计算开销和参数开销。 针对输入特征F,通过两个通道,一个是通道Mc一个是空
阅读全文
posted @ 2021-10-24 21:21 古幽月兮
阅读(264)
评论(0)
推荐(0)
2021年10月23日
第六周:论文泛读(一)
摘要: 深度学习、带卷积、SKNet
阅读全文
posted @ 2021-10-23 21:21 古幽月兮
阅读(145)
评论(0)
推荐(0)
2021年10月3日
第五周作业:卷积神经网络(Part3)
摘要: 1、MobileNet 随着对准确度的要求越来越高,网络也越来越深。因此既能保持模型性能(accuracy)也能降低模型大小(parameters size)、同时提升模型速度(speed, low latency)的MobileNet应运而生。 MobileNet的基本单元是深度可分离卷积(dep
阅读全文
posted @ 2021-10-03 20:37 古幽月兮
阅读(223)
评论(0)
推荐(0)
2021年9月26日
第四周作业:卷积神经网络(Part2)
摘要: 一、理论学习 1、AlexNet的主要改进:在全连接层后增加丢弃法Dropout、使用ReLU减缓梯度消失、使用MaxPooling 上下两层是两个GPU的结果,输入为227*227*3的图片(由224*224*3调整得来),第一层卷积的卷积核数量为96,卷积核大小为11*11*3,步长是4,pad
阅读全文
posted @ 2021-09-26 21:58 古幽月兮
阅读(417)
评论(1)
推荐(0)
2021年9月19日
第三周作业:卷积神经网络(Part1)
摘要: 一、理论学习 1、基本理论 对于定义一个类,都要继承nn.Module。在类里,通常不可缺少的两个函数分别是__init__()和forward()。__init__()函数首先调用父类的__init__()函数,再定义所需要的层以及所需要的操作;forward()前向函数将输入进行__init__
阅读全文
posted @ 2021-09-19 21:17 古幽月兮
阅读(184)
评论(0)
推荐(0)
2021年9月12日
第二周作业:多层感知机
摘要: 夯实基础是必要的,每天学一点点也是必要的,快乐摸鱼生活又过去了一周~
阅读全文
posted @ 2021-09-12 01:04 古幽月兮
阅读(313)
评论(0)
推荐(0)
2021年9月5日
第一次作业:深度学习基础
摘要: 深度学习基础你打好了吗?没有吧?我也没有
阅读全文
posted @ 2021-09-05 21:48 古幽月兮
阅读(124)
评论(1)
推荐(0)
2020年12月3日
第六次学习
摘要: GAN、cGAN、DCGAN
阅读全文
posted @ 2020-12-03 17:42 古幽月兮
阅读(101)
评论(2)
推荐(0)
下一页
公告