摘要: 第8讲:Dataset and Dataloader 视频教程 Epoch:参与训练的所有进行反向正向传播的数据 Batch-Size:批量大小:正向,反向,更新所用的训练样本的数量 Iteration:内层迭代次数 Dataset支持索引操作,提供数据集的长度 Shuffle:打乱数据集,是数据具 阅读全文
posted @ 2022-08-10 12:42 Ling22 阅读(101) 评论(0) 推荐(0)
摘要: 处理多维特征的输入 视频教程 图片来自课程ppt 1.准备数据集: 行:样本 列:每个样本的特征 代码数据集x是前8列,y最后一列 2.多维的逻辑斯蒂回归模型 说明: 计算每个样本的8个特征分别去乘以权重 计算出1的值之后加上偏置量,即z(i)(第i个样本的线性计算值) 将z(i)代入logisti 阅读全文
posted @ 2022-08-09 12:27 Ling22 阅读(192) 评论(0) 推荐(0)
摘要: 逻辑斯蒂回归 视频教程 1.线性模型与逻辑斯蒂回归模型区别? 说明: 多了sigmoid函数 计算损失时有区别 2.为什么选用sigmoid函数? 说明: 回归问题:输出是个R,分类问题:输出是某个分类的[0,1]的概率 利用sigmoid函数将R映射在概率取值范围[0,1]区间上 3.怎样计算二分 阅读全文
posted @ 2022-08-05 15:36 Ling22 阅读(84) 评论(0) 推荐(0)
摘要: 视频教程 1. prepare dataset import torch x_data = torch.Tensor([[1.0],[2.0],[3.0]]) y_data = torch.Tensor([[2.0],[4.0],[6.0]]) #注意:x,y是3*1的张量(矩阵) 2. Desig 阅读全文
posted @ 2022-08-04 10:43 Ling22 阅读(42) 评论(0) 推荐(0)
摘要: 反向传播(Back Propagation): 视频教程 1.代码说明: forward 计算loss backward 反向计算梯度 由sgd再更新W权重 import torch x_data = [1.0, 2.0, 3.0] y_data = [2.0, 4.0, 6.0] w = torc 阅读全文
posted @ 2022-08-02 16:52 Ling22 阅读(213) 评论(0) 推荐(0)
摘要: 1.梯度下降(Gradient Descent Algorithm)¶ 代码说明: 1.求损失函数(训练集mse/abs随机样本) 2.and求梯度函数 3.梯度下降公式w = w -学习率 * 梯度函数`` 视频讲解 import matplotlib.pyplot as plt #准备数据 x_ 阅读全文
posted @ 2022-08-01 10:08 Ling22 阅读(225) 评论(0) 推荐(0)
摘要: 代码说明: 1.依次输入变量w:函数forward()中变量w由for循环中的区间间隔0.1传入 2.在固定各个w中:for循环中嵌套 计算预测值 计算样本损失值 各个样本的损失值求和 计算均方差 3.添加结果w,mse到列表中 4.绘制图像 视频链接 #导包 import numpy as np 阅读全文
posted @ 2022-08-01 08:42 Ling22 阅读(1181) 评论(0) 推荐(0)
摘要: 安装MySQL 搜索 下载安装包 点击no thanks...... custom 加载最新的包(sever,workbench,shell) 一直安装 记住密码!! 一路安装 安装完成,显示workbench workbench使用 阅读全文
posted @ 2022-07-21 15:42 Ling22 阅读(35) 评论(0) 推荐(0)
摘要: 一、导包 点击查看代码 import numpy as np import pandas as pd import matplotlib.pyplot as plt %matplotlib inline import seaborn as sns#画图seaborn封装了matp;otlib fro 阅读全文
posted @ 2022-07-21 15:32 Ling22 阅读(232) 评论(0) 推荐(0)
摘要: ##一、创建表格 1.创建员工表 CREATE TABLE `employee`( `emp_id` INT PRIMARY KEY, `name` VARCHAR(20), `birth_date`DATE, `sex`VARCHAR(1), `branch_id`INT, `sup_id`INT 阅读全文
posted @ 2022-07-20 22:11 Ling22 阅读(84) 评论(0) 推荐(0)