返回顶部

请叫我杨先生

导航

01 2022 档案

Pytorch 5.4 GPU
摘要:Pytorch GPU 加速 (拥有Nvidia显卡) 查看自己的 torch 版本型号 >>> torch.__version__ '1.10.1+cpu' 假如你的 torch 版本是和我一样的,那么你就需要安装 CUDA11.1的版本 对应表如下:\(CLICK HERE\) 下载安装CUDA 阅读全文

posted @ 2022-01-25 15:19 YangShusen' 阅读(147) 评论(0) 推荐(0)

Pytorch 5.3 自定义层、读写文件
摘要:自定义层 早在Pytorch 5.1 中我们就有讲过自定义层的实现和原理,具体可以参考我的前两篇文章。 这篇文章主要是补充带参数的层的自定义,和不带参数的层的自定义。 不带参数自定义层 class CenterLayer(nn.Module): # 我们定义其为 a-a的均值 def __init_ 阅读全文

posted @ 2022-01-25 14:33 YangShusen' 阅读(115) 评论(0) 推荐(0)

Pytorch 5.2 参数管理
摘要:参数管理 对于深度学习,参数可以比喻成耶稣和耶稣的十字架,模型的好坏,跟我们的参数有密切的关系,据此,深入了解 \(Pytorch\) 的参数是如何运行和作用的是十分重要的。 参数访问 我们从单层隐藏层的感知机入手: import torch from torch import nn net = n 阅读全文

posted @ 2022-01-21 23:28 YangShusen' 阅读(235) 评论(0) 推荐(0)

Pytorch 5.1 深度学习计算:层和块
摘要:层 此前,我们学习了多层感知机(Multi Layer Perceptron ,MLP) 。神经网络的核心组件是层$(layer)$,它是一种数据处理模块,我们可以将其看作数据过滤器。输入一些数据经过处理后,输出的数据变得更加有用。 块 **块$(block)$**可以描述单个层、由多个层组成的组件 阅读全文

posted @ 2022-01-20 22:54 YangShusen' 阅读(328) 评论(0) 推荐(0)

英语 3 代词
摘要:代词 代词分为人称代词(I,me,we),物主代词(mine,yours,hers),反身代词(myself,themselves),就讲了,自己上网查可以查得到。我们就挑一些比较特殊但是比较有用的分析。 人称代词的排列顺序: 通常是单数“231” (you,he and I) ,复数“123” ( 阅读全文

posted @ 2022-01-20 00:30 YangShusen' 阅读(736) 评论(0) 推荐(0)

英语 2 主格,宾格,所有格
摘要:主格,宾格,所有格 英语是一门以动词为主导的语言。谓语动词与人称的关系,称为“格“。不一样的关系 构成 不同的 ”格“。 我们根据参与对话的角色将人称代词分成了三类: (1)第一人称:即指交谈时自己这一方。 自己这方只有一人,称为“我” 第一人称单数;有二个或二个以上,称为“我们” 第一人称复数 ( 阅读全文

posted @ 2022-01-17 09:01 YangShusen' 阅读(4106) 评论(0) 推荐(0)

英语1 名词、冠词
摘要:名词 Noun 表示人、事物、地点以及抽象概念的词就是英语名词。 名词分为 (1)专有名词 (2) 普通名词 (1)专有名词:指特定的或独一无二的人或物(人名、地名、国家名)前一般不加冠词。 (2)其中普通名词又分为: (1)个体名词(例如:girl(女孩)room(房间)、 fan(风扇)), ( 阅读全文

posted @ 2022-01-16 21:04 YangShusen' 阅读(1175) 评论(0) 推荐(0)

Pytorch 4.9 实战Kaggle比赛:预测房价
摘要:实战Kaggle比赛:预测房价 我们要使用$Bart de Cock$于2011年收集 \([DeCock, 2011]\), 涵盖了 \(2006-2010\) 年期间亚利桑那州埃姆斯市的房价。来预测房价。 ####step.1下载数据集 我们有两种方式下载数据集 第一种方式是注册一个 \(Kag 阅读全文

posted @ 2022-01-15 23:44 YangShusen' 阅读(1034) 评论(0) 推荐(0)

Pytorch 4.8 梯度爆炸和梯度消失以及解决的办法
摘要:梯度爆炸/消失 梯度消失 : 参数更新过小,在每次更新时几乎不会移动,导致模型无法学习。 %matplotlib inline import torch from d2l import torch as d2l # 梯度消失 参数更新过小,在每次更新时几乎不会移动,导致模型无法学习 x = torc 阅读全文

posted @ 2022-01-12 12:11 YangShusen' 阅读(2411) 评论(0) 推荐(0)

《运动解剖学》 骨
摘要:骨 成年人全身骨头的数目是206块,青少年在骨化以前是会多于206块的。人体的骨头分为颅骨,躯干骨和肢骨三个部分。各骨端由软骨、韧带或关节连结起来。全身的骨多数是成对的, 少数是不成对的。 ####1.1人体的骨按形态可分为 长骨:主要分布在四肢,呈管状,中部为骨或称为骨体,两端膨大,称为骺 短骨: 阅读全文

posted @ 2022-01-10 18:29 YangShusen' 阅读(2036) 评论(0) 推荐(0)

《运动解剖学》 读书笔记
摘要:1.运动解剖学基本术语 ####1.1人体解剖学的基本姿势: 总结的话就是:身体直立,上肢下垂,手掌向前,两足并拢,足尖向前。 注意:在描述各种不同的人体姿势或结构时,都应该以此为标准。不论被观察的人体是俯卧的、仰卧的或倒置的,均要想象将其复位到标准解剖学姿势后进行描述。 ####1.2以人的标准解 阅读全文

posted @ 2022-01-10 17:49 YangShusen' 阅读(1254) 评论(0) 推荐(0)

Pytorch 4.7 前向传播和反向传播剖析
摘要:前向传播 前向传播(forward propagation或forward pass) 指的是:按顺序(从输入层到输出层)计算和存储神经网络中每层的结果。 为了搞清楚前向传播是如何实现的,我们以简单的例子作为切入点,假设输入的样本是 \(X\in R^{d×1}\) ,隐藏层不包括偏置项 \(b\) 阅读全文

posted @ 2022-01-08 23:37 YangShusen' 阅读(1057) 评论(0) 推荐(0)

Pytorch 4.6 Dropout 暂退法
摘要:Waht's Dropout ? 上一节 权重衰减:\(L2\) 正则化 通过介绍添加 \(L_2\) 正则化来减少过拟合的情况的出现。这一节我们使用Dropout Layer 来证明 \(L2\) 正则化的正确性。 Dropout 的意思是每次训练的时候随机损失掉一些神经元, 这些神经元被Drop 阅读全文

posted @ 2022-01-08 21:34 YangShusen' 阅读(788) 评论(0) 推荐(0)

Pytorch 4.5 权重衰减
摘要:##正则化 ###预备知识 ####1.范数 距离的定义是一个宽泛的概念。只要是满足①非负②自反③三角不等式就可以称之为距离。范数是一种强化了的距离概念,它在定义上比距离多了一条数乘的运算法则。我们可以将范数当成是一种距离来理解。 (1)L-P范数 \(||L||_p = (\sum_{i=1}^{ 阅读全文

posted @ 2022-01-05 16:22 YangShusen' 阅读(344) 评论(0) 推荐(0)

Pytorch 4.4 模型选择和多项式回归
摘要:模型选择 ###1.1 Training Error And Generalization Error (训练误差和泛化误差) Training Error: 训练误差,指的是在训练数据得到的误差。 Generalization Error:在原本的样本中抽取无限多的样本时,所计算出来的误差的期望值 阅读全文

posted @ 2022-01-04 00:35 YangShusen' 阅读(393) 评论(0) 推荐(0)

伽马分布的伸缩性证明
摘要:特征函数 假设 \(p(x)\) 是随机变量 \(X\) 的密度函数,则 \(p(x)\) 傅里叶变换是: \(\varphi (t) = \int _{-\infty }^{\infty} e^{itx} p(x) \mathrm{d}x = E(e^{itX})\) \(e^{it} = \co 阅读全文

posted @ 2022-01-03 00:49 YangShusen' 阅读(1164) 评论(0) 推荐(0)

Pytorch 4.3 多层感知机的框架实现
摘要:多层感知机的框架实现(同Softmax框架实现一毛一样,只是添加一个仿射函数变换(隐藏层)而已) ####step1.引入框架 import torch from torch import nn from d2l import torch as d2l ####step2.设计模型和初始化参数 # 阅读全文

posted @ 2022-01-02 21:00 YangShusen' 阅读(190) 评论(0) 推荐(0)

Pytorch 4.2 多层感知机的从零开始实现
摘要:多层感知机的从零实现 (有点类似于Softmax和线性回归) ####step1.读取数据 import torch from torch import nn from d2l import torch as d2l %matplotlib inline batch_size = 256 train 阅读全文

posted @ 2022-01-02 12:29 YangShusen' 阅读(187) 评论(0) 推荐(1)

Pytorch 4.1 多层感知机认识
摘要:多层感知机认识 隐藏层 Hidden Layer 隐藏层通过放射变换,其实也就是 通过$y = wx +b$这种变换,本质上是线性的变换得到的。 按道理说,我们只需要设置一个单层隐藏层,通过不断增加Unit单元个数,就可以模拟所有的函数以及曲线,但是这样无疑是非常有难度的,我们可以将其看成是一个泰勒 阅读全文

posted @ 2022-01-02 00:13 YangShusen' 阅读(200) 评论(0) 推荐(0)

Pytorch 3.4.5 Softmax 框架实现
摘要:Softmax 框架实现 #####step1.import the packages import torch from torch import nn from d2l import torch as d2l #####step2.loading dataset and set batch_si 阅读全文

posted @ 2022-01-01 10:53 YangShusen' 阅读(203) 评论(0) 推荐(0)