上一页 1 2 3 4 5 6 ··· 11 下一页
摘要: 一、TensorDataset 语法:class torch.utils.data.TensorDataset(data_tensor, target_tensor) 作用:包装数据和目标张量(类似Python中的zip()函数),可通过第一维度索引两个张量恢复数据。故要保证两个tensor的第一维 阅读全文
posted @ 2023-03-02 17:13 Kruskal 阅读(150) 评论(0) 推荐(0) 编辑
摘要: 0 梯度更新函式 1 梯度 神经网络参数如下: θ = {w1, w2, ... , b1, b2, ...} 权重梯度如下: 为了更好且有效的计算梯度,我们使用反向传播算法。 2 链式法则 3 反向传播 损失函数(Loss function)是定义在单个训练样本上的,比如我们想要分类,就是预测的类 阅读全文
posted @ 2022-11-30 00:13 Kruskal 阅读(45) 评论(0) 推荐(0) 编辑
摘要: 0 相关术语介绍 类:用来描述具有相同属性和方法的对象的集合。它定义了该集合中每个对象所共有的属性和方法。其中对象指的是类的实例。比如动物是一个对所有动物的总称,所有动物皆由细胞所构成,那么动物就是一个类。 类变量:类变量在整个实例化对象中是公用的,定义在类中且在函数体之外,通常不作为实例变量使用。 阅读全文
posted @ 2022-11-27 19:35 Kruskal 阅读(13) 评论(0) 推荐(0) 编辑
摘要: 一、下载对应的code https://github.com/braindecode/braindecode 二、安装相应的环境 Braindecode需要在安装之前已经安装两个库,即 PyTorch和moabb。然后进入相应的pytroch环境进行以下操作: pip install moabb p 阅读全文
posted @ 2022-11-16 22:30 Kruskal 阅读(122) 评论(0) 推荐(0) 编辑
摘要: What Is Batch Norm? Batch Normalization(批标准化)的动机是“内部协变量偏移”,可解决梯度消失和梯度爆炸问题,其本质上就是做特征缩放,将分散的数据做一个统一,让机器学习更容易找到数据之中的规律。 Why Batch Normalization Matters? 阅读全文
posted @ 2022-11-15 01:05 Kruskal 阅读(12) 评论(0) 推荐(0) 编辑
摘要: 00.Machine Learning 机器学习就是让机器找函式的能力。 01.Different types of Functions 机器学习三大任务: regression:我们找的函式输出的是数值。 classification:让机器做选择题,如侦测垃圾邮件 structured lear 阅读全文
posted @ 2022-04-21 11:37 Kruskal 阅读(56) 评论(0) 推荐(0) 编辑
摘要: 1.权限基本介绍 第0位确定文件的类型(d、l、b、c、-) d代表目录,相当于Windows文件夹 l代表链接,相当于快捷方式 b代表块设备,相当于硬盘 c代表字符设备文件,相当于鼠标,键盘 -代表普通文件 第1-3位指文件所有者拥有该文件的权限(user) 第4-6位指同用户组拥有该文件的权限( 阅读全文
posted @ 2022-04-19 21:11 Kruskal 阅读(60) 评论(0) 推荐(0) 编辑
摘要: 1.添加用户 基本语法: useradd 用户名 (默认创建用户在/home下) useradd -d 指定目录 用户名 2.指定和修改密码 基本语法: passwd 用户名 pwd(显示当前用户所在目录) 3.删除用户 基本语法: userdel 用户名 (保留家目录下的数据,一般情况下建议保留) 阅读全文
posted @ 2022-04-18 11:55 Kruskal 阅读(27) 评论(0) 推荐(0) 编辑
摘要: 1.关机和重启 2.用户登录和注销 阅读全文
posted @ 2022-04-18 09:23 Kruskal 阅读(37) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2022-04-16 22:58 Kruskal 阅读(16) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 ··· 11 下一页