返回顶部

请叫我杨先生

导航

12 2021 档案

Pytorch 3.4.4 Softmax 基础知识
摘要:Softmax 基础 1.计算Softmax的导数 定义Softmax函数:\(S_j = \frac{e^{a_j}}{\sum_{k=1}^{N}e^{a_k}} \quad ∀_j ∈ 1,2,3\cdots,N\) 输入$a , a∈R^{N*1}$ , 用Softmax映射: \(S(a) 阅读全文

posted @ 2021-12-25 23:43 YangShusen' 阅读(518) 评论(0) 推荐(0)

Pytorch 3.4.3 Softmax 负对数似然
摘要:负对数似然 当你看不懂的时候就请放下你的浮躁和各种想法,静下来好好琢磨琢磨这一件事情。 我们先来温习下最大似然函数 (Maximum Likelihood Estimation, MLE) 《茆诗松概率论与数理统计》第六章 例:6.3.1 设有外形完全相同的两个箱子,甲箱中有99个白球和1个黑球,乙 阅读全文

posted @ 2021-12-25 17:45 YangShusen' 阅读(1184) 评论(0) 推荐(0)

Pytorch 3.4.2 softmax回归 交叉熵损失函数
摘要:交叉熵损失函数 关于信息熵我们已经在上一篇文章中有详细的讲解了"Click here to visit", 对于二分类的问题,信息熵计算公式为: \(H(X) = -\Sigma_{i = 1}^{n} p(x_i)\log p(x_i) = -(p(x)\log p(x) +(1-p(x))\lo 阅读全文

posted @ 2021-12-24 23:04 YangShusen' 阅读(474) 评论(0) 推荐(0)

Pytorch 3.4.1 softmax回归 信息熵
摘要:信息熵 信息论之父C.E.Shannon 香农,在 1948 年发表的论文“通信的数学理论( A Mathematical Theory of Communication )”中指出,任何信息都存在冗余,冗余大小与信息中每个符号(数字、字母或单词)的出现概率或者说不确定性有关。 What's Com 阅读全文

posted @ 2021-12-24 17:30 YangShusen' 阅读(672) 评论(0) 推荐(0)

Pytorch 第一阶段知识点查漏补缺
摘要:第一阶段知识点查漏补缺 d2l 1.d2l官方也没有过多解释这个包的信息,但是却给出了用法: DESCRIPTION Please import d2l by one of the following ways: from d2l import mxnet as d2l # Use MXNet as 阅读全文

posted @ 2021-12-21 10:04 YangShusen' 阅读(3018) 评论(2) 推荐(1)

Pytorch 3.3 后续 线性回归的简单实现(基于Pytorch框架实现)
摘要:线性回归的简单实现(基于Pytorch框架实现) ###先来简单复习下线性回归的步骤吧 #####step.1导入库函数 %matplotlib inline import random #用于随机化生成的数据 import torch #框架 from d2l import torch as d2 阅读全文

posted @ 2021-12-21 00:48 YangShusen' 阅读(683) 评论(0) 推荐(0)

Pytorch 3.2 线性回归简单实现
摘要:线性回归简单实现 由于正规方程在实际应用中十分受限,所以我们一致采用最普遍的优化方式:小批量梯度下降 梯度下降原理: 小批量梯度下降: 对于小批量梯度下降,我们需要通过我们CPU和GPU的性能选择批量$b$大小,学习率lr的选择等,但是在目前的话,我们还无需理会过多。 我们使用一下的模型进行学习: 阅读全文

posted @ 2021-12-16 10:44 YangShusen' 阅读(309) 评论(0) 推荐(0)

矩阵求导
摘要:矩阵求导 矩阵求导1 简单求导 假设我有A和B两个张量(可以是1x1的标量也可以是向量或者矩阵),所谓矩阵求导 \(\frac{\partial A}{\partial B}\), 就是矩阵A当中的每一个元素对B中的每一元素进行求导,所以求到之后的张量的元素的个数有以下情形: 那么现在我们来复习一下 阅读全文

posted @ 2021-12-14 23:57 YangShusen' 阅读(9048) 评论(0) 推荐(0)

Pytorch 3.1 Liner Regression
摘要:线性回归: 回归(regression)是指一类为一个或多个自变量与因变量之间关系建模的方法。在自然科学和社会科学领域,回归经常用来表示输入和输出之间的关系。 线性回归:回归中最简单的一类模型。线性回归基于几个简单的假设:首先,假设自变量 \(𝐱\) 和因变量 \(𝑦\) 之间的关系是线性的,即 阅读全文

posted @ 2021-12-14 16:51 YangShusen' 阅读(356) 评论(0) 推荐(0)

概率
摘要:概率 🏷️sec_prob 在某种形式上,机器学习就是做出预测。 根据病人的临床病史,我们可能想预测他们在下一年心脏病发作的概率。在异常检测中,我们可能想要评估飞机喷气发动机的一组读数是正常运行情况的可能性有多大。在强化学习中,我们希望智能体(agent)能在一个环境中智能地行动。这意味着我们需要 阅读全文

posted @ 2021-12-14 09:25 YangShusen' 阅读(586) 评论(0) 推荐(0)

Pytorch 2.3.5 预备知识 Pytorch下的概率论
摘要:我很喜欢的一句话 “在某种形式上,机器学习就是做出预测。” 突出了概率论于机器学习的重要性。 Pytorch官方是这样描述 torch.distributions 这个方法模块的: The distributions package contains parameterizable(可参数化的) p 阅读全文

posted @ 2021-12-14 00:00 YangShusen' 阅读(719) 评论(0) 推荐(0)

LaTeX 公式之美
摘要:LaTeX 公式之美 LaTeX,始于公式,忠于优雅... 很长一段时间,数学公式的编辑都是采用MathType解决的,但是直到我遇到了LaTeX的公式便一见倾心、久久不能释怀… 相信很多做学术的科研狗应该都是听过LaTeX排版写出来的Paper是多么的好看,颜值高。其实LaTeX... ... ( 阅读全文

posted @ 2021-12-12 22:50 YangShusen' 阅读(673) 评论(0) 推荐(0)

Pytorch 2.3.4 预备知识 -积分Calculus
摘要:微积分 Calculus 关于那些求导的基础知识我就不细讲了,如果有需要的话请访问:一篇关于微积分入门的文章 So,我们直接从代码开讲 1. 绘制函数 \(y = f(x) = x^3 - \frac{1}{x}\) 和其在$x = 1$处切线的图像。 我们先来定义函数和切线 #求导 第一题 def 阅读全文

posted @ 2021-12-12 20:32 YangShusen' 阅读(941) 评论(0) 推荐(0)

概率论与数理统计 -随笔2 Significant Level 和 Confident Level 和 P value 的 理解
摘要:Significant Level 和 Confident Level 和 P value 的 理解 在此之前,我们先提出一个问题: 1. 为什么要进行假设检验? 为了判断样本与样本,样本与总体的差异是由抽样误差引起还是本质差别造成的统计推断方法。其基本原理是先对总体的特征作出某种假设,然后通过抽样 阅读全文

posted @ 2021-12-12 11:13 YangShusen' 阅读(2344) 评论(0) 推荐(0)

Pytorch 2.3.3 预备知识 matplotlib的基本用法和常识
摘要:#Matplot基本用法+常识 **引用:**matplotlib实际上为面向对象的绘图库,它所绘制的每个元素都有一个对象与之对应的。figure就是一个图啦,axes表示图上的一个画图区域啦,一个图上可以有多个画图区域的啦,意思就是说,一个图上可以有多个子图啊。用函数gcf()与gca()分别得到 阅读全文

posted @ 2021-12-11 21:19 YangShusen' 阅读(521) 评论(0) 推荐(0)

Pytorch 2.3.2 预备知识 Pytorch下的线代
摘要:#线代 标量:单个数字、加减乘除等运算 向量:维度问题 矩阵:矩阵取数、方阵、对称矩阵、转置 张量:n维数组的通用办法 张量算法的基本性质:哈达玛积 降维:沿轴卷动,求和或平均、非降为求和等 点积(Dot Product):用处很大、加权平均 矩阵-向量积:点积推广 矩阵-矩阵乘法:点积推广、注意维 阅读全文

posted @ 2021-12-11 16:45 YangShusen' 阅读(182) 评论(0) 推荐(0)

Pytorch 2.3.1 预备知识 pandas
摘要:#预备知识 pandas 创建一个数据 #pandas预备知识 import os os.makedirs(os.path.join('data'),exist_ok=True) #exist_ok = True 可以在文件已有的时候不创建 data_file = os.path.join('dat 阅读全文

posted @ 2021-12-11 16:42 YangShusen' 阅读(242) 评论(0) 推荐(0)

概率论与数理统计 -随笔1-茆诗松第七章-显著性水平 α 的深刻理解
摘要:#显著性水平 α 显著性水平!不能被认为是假设成立时所犯错误的风险!我们只能认为显著性水平的值=假设成立时所犯错误的风险,两者概念完全不一样,仅仅是数值相等而已。只需要把这个关系理清楚,就能搞明白这其中的困惑。 来自知乎阿华 那显著性水平到底是什么?见下图。这张图就清晰的展示了,一个总体模型是被分为 阅读全文

posted @ 2021-12-11 09:14 YangShusen' 阅读(1102) 评论(0) 推荐(0)

Pytorch 2.2 Autogard: Pytorch中的梯度计算
摘要:Autogard:Pytorch中的梯度计算 用PyTorch构建的神经网络,其梯度计算是通过torch.autograd来完成的。当我们进行了一系列计算,并想获取一些变量间的梯度信息,需要进行以下步骤: 构建一个计算图,用Variable将Tensor包装起来,形成计算图中的节点。然后Variab 阅读全文

posted @ 2021-12-10 12:16 YangShusen' 阅读(470) 评论(0) 推荐(0)

Markdown编辑器推荐
摘要:#如题,Markdown编辑器推荐,这里我推荐的是“Typroa” #下载地址:http://www.pc6.com/softview/SoftView_489637.html 下载完之后解压--> 按照步骤进行操作--> 打开文件--> <--安装完成之后就将破解文件app.asar拉到Typor 阅读全文

posted @ 2021-12-10 12:05 YangShusen' 阅读(143) 评论(0) 推荐(0)

Pytorch 2.1 基础知识大扫盲
摘要:Pytorch基础知识大扫盲 张量 Tensor Tensor在TensorFlow中数据的核心单元就是Tensor。在PyTorch中Tensor负责存储基本数据,PyTorch也对Tensor提供了丰富的函数和方法,PyTorch中Tensor与Numpy的数组十分相似。并且PyTorch中定义 阅读全文

posted @ 2021-12-10 08:47 YangShusen' 阅读(546) 评论(0) 推荐(0)

Pytorch 1.1 介绍为啥要学习pytorch
摘要:#torch 学习笔记一 ###为什么有那么多人学习torch? 我从网上搜到的资料大概是:Pytorch相对于Tensorflow,PyTorch 模型的基础上进行修改,非常方便,一切都是那么自然和透明。这吸引了许多研究者参与进来,一步一个脚印,利用别人做出来的东西,更进一步攀爬。 ###障碍1 阅读全文

posted @ 2021-12-09 23:03 YangShusen' 阅读(228) 评论(0) 推荐(0)

Markdown 代码基础用法
摘要:#Markdown基本用法 Markdown 是一种轻量级的「标记语言」,它的优点很多,目前也被越来越多的写作爱好者,撰稿者广泛使用。看到这里请不要被「标记」、「语言」所迷惑,Markdown 的语法十分简单。常用的标记符号也不超过十个,这种相对于更为复杂的 HTML 标记语言来说,Markdown 阅读全文

posted @ 2021-12-09 20:29 YangShusen' 阅读(428) 评论(2) 推荐(0)