09 2021 档案

摘要:一、理论学习 1、AlexNet的主要改进:在全连接层后增加丢弃法Dropout、使用ReLU减缓梯度消失、使用MaxPooling 上下两层是两个GPU的结果,输入为227*227*3的图片(由224*224*3调整得来),第一层卷积的卷积核数量为96,卷积核大小为11*11*3,步长是4,pad 阅读全文
posted @ 2021-09-26 21:58 古幽月兮 阅读(442) 评论(1) 推荐(0)
摘要:一、理论学习 1、基本理论 对于定义一个类,都要继承nn.Module。在类里,通常不可缺少的两个函数分别是__init__()和forward()。__init__()函数首先调用父类的__init__()函数,再定义所需要的层以及所需要的操作;forward()前向函数将输入进行__init__ 阅读全文
posted @ 2021-09-19 21:17 古幽月兮 阅读(196) 评论(0) 推荐(0)
摘要:夯实基础是必要的,每天学一点点也是必要的,快乐摸鱼生活又过去了一周~ 阅读全文
posted @ 2021-09-12 01:04 古幽月兮 阅读(319) 评论(0) 推荐(0)
摘要:深度学习基础你打好了吗?没有吧?我也没有 阅读全文
posted @ 2021-09-05 21:48 古幽月兮 阅读(140) 评论(1) 推荐(0)