摘要: 5-5汇聚层 通常当我们处理图像时,我们希望逐渐降低隐藏表示的空间分辨率、聚集信息,这样随着我们在神经网络中层叠的上升,每个神经元对其敏感的感受野(输入)就越大。 汇聚层,它具有双重目的:降低卷积层对位置的敏感性,同时降低对空间降采样表示的敏感性。 最大汇聚层和平均汇聚层 汇聚窗口从输入张量的左上角 阅读全文
posted @ 2023-05-08 09:50 idazhi 阅读(98) 评论(0) 推荐(0)
该文被密码保护。 阅读全文
posted @ 2023-05-06 09:52 idazhi 阅读(0) 评论(0) 推荐(0)
摘要: ``` 1.为什么要进行频域变化?(用快速傅利叶变换的形式写下来。) 原始图片在时域很多频域少 ``` ![](https://img2023.cnblogs.com/blog/3135291/202305/3135291-20230528123026019-1728476928.png) ``` 阅读全文
posted @ 2023-05-04 20:32 idazhi 阅读(1236) 评论(0) 推荐(0)
摘要: 4隐马尔可夫模型与序列标注 序列标注问题 •序列标注(tagging)指的是给定一个序列x=x_1 x_2…x_n,找出序列中每个元素对应标签y=y_1 y_2…y_n的问题 其中,y所有可能的取值集合称为标注集(tagset) 序列标注与中文分词 考虑一个字符序列x,想象切词器真的是拿刀切割字符串 阅读全文
posted @ 2023-05-02 21:03 idazhi 阅读(289) 评论(0) 推荐(0)
摘要: softmax回归的简洁实现 通过深度学习框架的高级API能够使实现softmax回归模型更方便地实现 继续使用Fashion-MNIST数据集,并保持批量大小为256。 import torch from torch import nn from d2l import torch as d2l b 阅读全文
posted @ 2023-04-28 15:00 idazhi 阅读(104) 评论(0) 推荐(0)
该文被密码保护。 阅读全文
posted @ 2023-04-28 11:27 idazhi 阅读(0) 评论(0) 推荐(0)
该文被密码保护。 阅读全文
posted @ 2023-04-26 00:07 idazhi 阅读(0) 评论(0) 推荐(0)
摘要: 线性回归实现 %matplotlib inline import random from mxnet import autograd, np, npx from d2l import mxnet as d2l 生成数据集 根据带有噪声的线性模型构造一个人造数据集。 任务是使用这个有限样本的数据集来恢 阅读全文
posted @ 2023-04-24 12:19 idazhi 阅读(61) 评论(0) 推荐(0)
该文被密码保护。 阅读全文
posted @ 2023-04-23 10:52 idazhi 阅读(0) 评论(0) 推荐(0)
该文被密码保护。 阅读全文
posted @ 2023-04-23 10:44 idazhi 阅读(0) 评论(0) 推荐(0)