摘要:线性回归简单实现 由于正规方程在实际应用中十分受限,所以我们一致采用最普遍的优化方式:小批量梯度下降 梯度下降原理: 小批量梯度下降: 对于小批量梯度下降,我们需要通过我们CPU和GPU的性能选择批量$b$大小,学习率lr的选择等,但是在目前的话,我们还无需理会过多。 我们使用一下的模型进行学习:
阅读全文
摘要:线性回归: 回归(regression)是指一类为一个或多个自变量与因变量之间关系建模的方法。在自然科学和社会科学领域,回归经常用来表示输入和输出之间的关系。 线性回归:回归中最简单的一类模型。线性回归基于几个简单的假设:首先,假设自变量 \(𝐱\) 和因变量 \(𝑦\) 之间的关系是线性的,即
阅读全文
摘要:我很喜欢的一句话 “在某种形式上,机器学习就是做出预测。” 突出了概率论于机器学习的重要性。 Pytorch官方是这样描述 torch.distributions 这个方法模块的: The distributions package contains parameterizable(可参数化的) p
阅读全文
摘要:微积分 Calculus 关于那些求导的基础知识我就不细讲了,如果有需要的话请访问:一篇关于微积分入门的文章 So,我们直接从代码开讲 1. 绘制函数 \(y = f(x) = x^3 - \frac{1}{x}\) 和其在$x = 1$处切线的图像。 我们先来定义函数和切线 #求导 第一题 def
阅读全文
摘要:#Matplot基本用法+常识 **引用:**matplotlib实际上为面向对象的绘图库,它所绘制的每个元素都有一个对象与之对应的。figure就是一个图啦,axes表示图上的一个画图区域啦,一个图上可以有多个画图区域的啦,意思就是说,一个图上可以有多个子图啊。用函数gcf()与gca()分别得到
阅读全文
摘要:#线代 标量:单个数字、加减乘除等运算 向量:维度问题 矩阵:矩阵取数、方阵、对称矩阵、转置 张量:n维数组的通用办法 张量算法的基本性质:哈达玛积 降维:沿轴卷动,求和或平均、非降为求和等 点积(Dot Product):用处很大、加权平均 矩阵-向量积:点积推广 矩阵-矩阵乘法:点积推广、注意维
阅读全文
摘要:#预备知识 pandas 创建一个数据 #pandas预备知识 import os os.makedirs(os.path.join('data'),exist_ok=True) #exist_ok = True 可以在文件已有的时候不创建 data_file = os.path.join('dat
阅读全文
摘要:Autogard:Pytorch中的梯度计算 用PyTorch构建的神经网络,其梯度计算是通过torch.autograd来完成的。当我们进行了一系列计算,并想获取一些变量间的梯度信息,需要进行以下步骤: 构建一个计算图,用Variable将Tensor包装起来,形成计算图中的节点。然后Variab
阅读全文
摘要:Pytorch基础知识大扫盲 张量 Tensor Tensor在TensorFlow中数据的核心单元就是Tensor。在PyTorch中Tensor负责存储基本数据,PyTorch也对Tensor提供了丰富的函数和方法,PyTorch中Tensor与Numpy的数组十分相似。并且PyTorch中定义
阅读全文
摘要:#torch 学习笔记一 ###为什么有那么多人学习torch? 我从网上搜到的资料大概是:Pytorch相对于Tensorflow,PyTorch 模型的基础上进行修改,非常方便,一切都是那么自然和透明。这吸引了许多研究者参与进来,一步一个脚印,利用别人做出来的东西,更进一步攀爬。 ###障碍1
阅读全文