随笔分类 - 每周总结
摘要:深度学习模型常常使⽤丢弃法(dropout)来应对过拟合问题。丢弃法有⼀些不同的变体。本节中提到的丢弃法特指倒置丢弃法(inverted dropout)。 1. 函数将以 的概率丢弃 中的元素。 2. 运⾏例⼦来测试⼀下 dropout 函数。其中丢弃概率分别为0、0.5和1。 丢弃率为0.5 丢
阅读全文
摘要:内容概览: 一、为什么需要使用反走样? 因为如左图所示是我们需要采样的三角形,右图是根据判断像素点是否在三角形内,采样后进行填充后的图案。明显看出右图和左图的差异性,这种现象叫做“锯齿”,我们改善这种现象,可通过“反走样(或者抗锯齿 )”改善。 二、图形学中的采样 采样在图形学中无处不在。常见的采样
阅读全文
摘要:过拟合现象,即模型的训练误差远⼩于它在测试集上的误差。虽然增⼤训练数据集可能会减轻过拟合,但是获取额外的训练数据往往代价⾼昂。本节介绍应对过拟合问题的常⽤⽅法:权重衰减(weight decay)。 一、方法 权重衰减等价于 范数正则化(regularization)。正则化通过为模型损失函数添加惩
阅读全文
摘要:一、训练误差和泛化误差 对于一个模型,并不是在本训练集下的准确率越高越好,很可能会因为过拟合,导致在本模型的训练集测试效果好,但在其他数据集的效果差。由此,有两个误差概念: 训练误差: 指该模型在训练数据集上表现的误差。 泛化误差: 指该模型放到任一个数据集下表现的误差,取近似误差。泛化误差更具参考
阅读全文
摘要:今日学习内容概览: 1. Finishing up Viewing Viewport transformation 2. Rasterization Different raster displays Rasterizing a triangle 一、透视投影(Perspective Project
阅读全文
摘要:其他博客: 多层感知机概述:https://www.cnblogs.com/somedayLi/p/12313804.html 多层感知机简洁实现:https:////www.cnblogs.com/somedayLi/p/12359420.html 下⾯实现⼀个多层感知机。⾸先导⼊实现所需的包或模
阅读全文
摘要:⾸先导⼊本节实现所需的包或模块。 1.获取数据集 使⽤Fashion MNIST数据集,并设置批量⼤⼩为256。 2.初始化模型参数 跟线性回归中的例⼦⼀样,我们将使⽤向量表示每个样本。已知每个样本输⼊是⾼和宽均为28像素的图像。模型的输⼊向量的⻓度是$28 \times 28 =784$:该向量的
阅读全文
摘要:学习内容概览: "3D transformations" "Viewing(观测)转换" View/Camera transformation Projection(投影) transformation Orthographic(正交) projection Perspective(透视) proj
阅读全文
摘要:一、Tensor用于自动求梯度 "tensor"这个单词⼀般可译作“张量”,张量可以看作是⼀个多维数组。标量可以看作是0维张量,向量可以看作1维张量,矩阵可以看作是⼆维张量。 在深度学习中,我们经常需要对函数求梯度(gradient)。PyTorch提供的 包能够根据输⼊和前向传播过程⾃动构建计算图
阅读全文
摘要:本节将介绍如何只利⽤ 和 来实现⼀个线性回归的训练。 ⾸先,导⼊本节中实验所需的包或模块,其中的matplotlib包可⽤于作图,且设置成嵌⼊显示。 ⾸先,导⼊本节中实验所需的包或模块: 一、生成数据集 我们构造⼀个简单的⼈⼯训练数据集,它可以使我们能够直观⽐较学到的参数和真实的模型参数的区 别。设
阅读全文
摘要:一、为什么学习transformation? modeling(建模) Viewing(可视化) 为什么translation? 1. 建模:转化 2. 建模:旋转 3. 建模:变换尺度 这个是Pixar公司的开场动画,那个小人一直在踩字母‘I’,这个插入gif有点问题,就用截图了。 4. 3D到2
阅读全文
摘要:一、导入所需的包或模块: 运行环境:win10 运行平台: python版本:python3.7
阅读全文
摘要:其他博客: 多层感知机从零开始实现:https://www.cnblogs.com/somedayLi/p/12359167.html 多层感知机简洁实现:https:////www.cnblogs.com/somedayLi/p/12359420.html 一、隐藏层 多层感知机在单层神经⽹络的基
阅读全文
摘要:损失函数(loss function)是用来估量模型的预测值$f(x)$与真实值$Y$的不一致程度,从而衡量模型预测的好坏。它是一个非负实值函数,通常使用$L(Y, f(x))$来表示,损失函数越小,模型的鲁棒性就越好。 常用损失函数 常见的损失误差主要有以下几种: 0 1损失(Zero one l
阅读全文
摘要:一、激活函数简介 首先,我们先通过三个问题掌握神经网络激活函数的概念及意义: 1. 为什么需要激活函数? 神经网络可以看成是一个多层复合函数,早期引入激活函数就是为了使其具有 非线性 ,因为引入之前为线性函数相互复合,但这样得到的最终结果仍旧是线性的。假如需要将一个 n 维向量,变成 m 维的向量(
阅读全文
摘要:一、人脸识别流程 (一)对齐 通过确定人脸中的标定点(landmark)的位置进行人脸对齐。(找3个点即可,一般找5个点:鼻子、眼睛、嘴角两端)对齐后可以找到一个二维坐标平面,进行下一步仿射变换。 (二)仿射变换 原理 二维坐标到二维坐标之间的线性变换 不共线的三对对应点决定了一个唯一的仿射变换 其
阅读全文
摘要:一、softmax函数简介 softmax作为输出层的激励函数,在机器学习中常被看作是一种多分类器。通俗的意思就是,将一个物品输入,得出其中可能属于的类别概率(soft),最后得出最大可能性的判别(max)。下图为softmax的具体计算流程: 其中,3、1、 3为输入值,计算以e为底的幂,之后求各
阅读全文
摘要:一、人脸识别应用介绍 如今流行的生物特征识别技术及市场占比: 下图为常用的生物特征识别的差异性对比: 人脸识别应用案例 1. 1:1识别——用户登录等。 2. 1:N(N≈10^3)识别——企业考勤等。 3. 1:N(N 10^9)识别——智能寻亲,通过某年龄段照片,对比监控数据;抓捕逃犯等。 二、
阅读全文
摘要:今日任务概览: 今天主要是利用Autogluon框架完成图像分类任务。下面主要总结其中涉及的一些要点。 一、模型介绍: ResNet简介: ResNet(Residual Networks 残差网络),2015年何凯明团队提出,在2015年的ILSVRC(ImageNet)的classificati
阅读全文
摘要:今天主要是通过Xshell连接服务器,便于访问学校的计算资源训练模型。 一、前期准备: (一)安装Xmanager Power Suite 6 Xmanager Power Suite 6 简介 Xmanager Power Suite 6 是一款强大好用的会话管理工具,主要适用于网络管理人员使用,
阅读全文
浙公网安备 33010602011771号