摘要: Dataset&Dataloader 在利用 Pytorch 进行深度学习的训练时需要将数据进行打包,这就是 Dataset 与 Dataloader 的作用。 Dataset 将数据进行包装,Dataloader 迭代包装好的数据并输出每次训练所需要的矩阵。 官网教程: Datasets & Da 阅读全文
posted @ 2022-08-28 23:14 guangheli 阅读(78) 评论(0) 推荐(0)
摘要: LeNet 由 Yann LeCun 发明的著名的 LeNet. 原版中激活函数用的都是 $\mathrm{sigmoid}$, 现在看来用 $\mathrm{ReLU}$ 或 $\mathrm{tanh}$ 也许会更合适. Fashion - mnist 数据集的识别 数据下载 def gener 阅读全文
posted @ 2022-04-07 07:40 guangheli 阅读(93) 评论(0) 推荐(0)
摘要: 概率分布 torch.randn_like() 函数:返回一个与 input 形状相同的服从 N(0,1) 的张量 GPU 相关 查看 torch 的版本 torch.__version__ 查看 cuda 是否 available: torch.cuda.is_available() 查看 GPU 阅读全文
posted @ 2022-03-11 14:35 guangheli 阅读(88) 评论(0) 推荐(0)
摘要: 数据的标准化 当 $\mathrm{x[i]}$ 与 $\mathrm{x[j]}$ 这两个维度的数值范围偏差过大时梯度下降会难以进行. 梯度下降算法在输入向量的每个维度取值范围相近时更容易找到最低点. $\mu = \frac{1}{m} \sum_{i =1}^{m} x^{(i)}$ $x:= 阅读全文
posted @ 2022-03-09 07:57 guangheli 阅读(65) 评论(0) 推荐(0)
摘要: 深层神经网络 最重要的是要让整个过程向量化以加快运行速度,这里给出矩阵的大小. 假设一共有 $\mathrm{L}$ 层,$\mathrm{m}$ 个训练样本,每一层的节点数量为 $\mathrm{n[l]}$ $\mathrm{W[l] = (n[l], n[l - 1])}$, $\mathrm 阅读全文
posted @ 2022-03-04 20:03 guangheli 阅读(48) 评论(0) 推荐(0)
摘要: 双层神经网络 作业 01 只用了单层神经网络实现分类,这次用单隐藏层神经网络来实现 注:$\mathrm{\times}$ 代表正常的矩阵乘法,$\mathrm{*}$ 代表数乘或者矩阵对应位置相乘. 输入 $\mathrm{m}$ 个训练样本,每个样本有 $\mathrm{n[0]}$ 个特征 正 阅读全文
posted @ 2022-03-04 09:29 guangheli 阅读(152) 评论(0) 推荐(0)
摘要: 算是第一个大作业吧,实现的还是比较粗糙的. 题目:给定 200 个图片作为训练样本,训练出可以识别一张图片是否是猫的程序 考虑 $\mathrm{P(Y=1|X) = \sigma (W^{T}X+b)}$, 其中 $\mathrm{\sigma(z) = \frac{1}{1 + exp(-z)} 阅读全文
posted @ 2022-03-01 14:51 guangheli 阅读(38) 评论(0) 推荐(0)
摘要: J. Suffix Automaton 来源:The 2021 CCPC Guilin Onsite (Grand Prix of EDG) 2021CCPC 桂林站的题,用后缀数组+平衡树做的. 统计字典序问题可以用后缀数组方便解决,即提取出 $\mathrm{sa, Height}$ 数组. 对 阅读全文
posted @ 2022-02-06 15:11 guangheli 阅读(71) 评论(0) 推荐(0)
摘要: 定义 图中经过所有边恰好一次的路径叫欧拉路径. 如果此路径的起点和终点相同,则称其为一条欧拉回路. 有向图欧拉路径 1. 恰好存在 $\mathrm{1}$ 个点出度比入度多 $\mathrm{1}$ (这个点即为起点 $\mathrm{s}$)2. 恰好存在 $\mathrm{1}$ 个点入度比出 阅读全文
posted @ 2022-02-05 17:00 guangheli 阅读(93) 评论(0) 推荐(0)
摘要: L. Perfect Matchings 标签:容斥原理,树形 $\mathrm{DP}$ 如果没有删边的限制就是组合数直接算,但是有一些边是不能选的. 不妨考虑利用容斥原理来做,钦定选上 $\mathrm{i}$ 条树边,然后扣掉点后剩下的边随便选. 然后这个就符合二项式反演中的公式,直接反演就能 阅读全文
posted @ 2022-02-05 15:56 guangheli 阅读(123) 评论(0) 推荐(0)