03 2020 档案

摘要:Lecture 14 学习内容: Lecture 15(今日学习内容) 第一部分:辐射度量学 一、Irradiance (一) 定义 Irradiance 是入射的表面点(垂直/投影)单位面积上的功率(power、energy均可)。 计算公式如下: 注意事项——Irradiance VS. Int 阅读全文
posted @ 2020-03-31 23:41 Someday&Li 阅读(796) 评论(0) 推荐(0)
摘要:安装好Anaconda 3使用Jupyter notebook时,当我们打开Jupyter notebook,发现界面是一个默认的目录。通过下面三步将默认目录修改为自己想存储的路径。 系统默认目录: 一、修改配置文件 (一)重置配置文件 在开始菜单里找到并打开Anaconda Prompt,输入如下 阅读全文
posted @ 2020-03-30 22:51 Someday&Li 阅读(1253) 评论(0) 推荐(0)
摘要:Lecture 13 内容: Lecture 14 内容概览: 使用 AABBs 加速光线追踪 均分的格子 空间划分(Spatial partitions) 辐射度量学(Basic Radiometry) 第一部分:光线追踪加速 一、均匀的空间划分(Grids) (一) 预处理 构建加速网格 划分格 阅读全文
posted @ 2020-03-29 23:10 Someday&Li 阅读(481) 评论(0) 推荐(0)
摘要:DenseNet与残差网络(ResNet)有区别也类似。区别如下: 在跨层连接上:ResNet(左)使⽤相加;DenseNet(右)使⽤连结。 DenseNet将模块 A 直接跟模块 B 后⾯的所有层连接在了⼀起。这也是它被称 为“稠密连接”的原因。 DenseNet的主要构建模块是稠密块(dens 阅读全文
posted @ 2020-03-28 22:49 Someday&Li 阅读(1096) 评论(0) 推荐(0)
摘要:图像信号处理在图形学中有举足轻重的作用,这节博客对图像的采样、滤波和重构进行简要总结。 一、离散图像滤波 图像中最广泛的应用是使用简单的卷积滤波器。通过与一般的低通滤波器(从盒式滤波器到高斯滤波器)进行卷积,实现对图像的模糊化处理。例如下图中高斯模糊看起来很平滑,被广泛使用。 二、反走样技术 在图像 阅读全文
posted @ 2020-03-27 22:55 Someday&Li 阅读(1824) 评论(0) 推荐(0)
摘要:博客目录: "一、盒式滤波器" "二、帐篷式滤波器" "三、高斯滤波器" "四、三次B样条滤波器" "五、三次 Catmull Rom 滤波器" "六、三次Mitchell Netravali滤波器" 当有了卷积工具,下面介绍图形学常用的几种滤波器: 一、盒式滤波器 盒式滤波器是一个分段常值函数,它 阅读全文
posted @ 2020-03-26 21:54 Someday&Li 阅读(1323) 评论(0) 推荐(0)
摘要:随着图形学学习深入,会遇到连续函数不能直接用于数字计算机,必须进行数字化处理的情况。处理连续函数最有效的方法之一,就是函数的采样值,将函数在多个不同点处的值存储起来,需要时就重构其他函数值。本节将概述采样与重构技术。 一、数字音频:一维采样 记录音频信号的数字方法是采样,模数转换器(ADC)每秒钟测 阅读全文
posted @ 2020-03-25 23:08 Someday&Li 阅读(572) 评论(0) 推荐(0)
摘要:引入光线追踪目的: 1. 因为光栅化不能很好地处理全局效果,例如: 软阴影:光栅化需要经过两个过程才能形成软阴影; Glossy 反射:既有反射,又有本身材质的粗糙性影响; 间接反射:光线在空间中会反射很多次,很难渲染。 2. 光栅化速度快,但是质量并不好,表现得是相似的东西;光线追踪很精确,效果很 阅读全文
posted @ 2020-03-24 23:08 Someday&Li 阅读(941) 评论(0) 推荐(1)
摘要:今天的学习内容主要是细分(Subdivision),这样就结束了几何的课程,下节课将引入光线追踪了( 预习内容:虎书——第 4 章(Ray Tracing) ),闫老师在光线追踪方面有很深的造诣,让我们后续拭目以待。 另外,这堂课提到一个大新闻,时隔32年,计算机图形学再次获得了图灵奖,关于 和`P 阅读全文
posted @ 2020-03-23 22:55 Someday&Li 阅读(462) 评论(0) 推荐(0)
摘要:因为我实在太困了~~ 阅读全文
posted @ 2020-03-22 22:47 Someday&Li 阅读(113) 评论(0) 推荐(0)
摘要:论文连接: "Going deeper with convolutions" 之所以名为“GoogLeNet”而非“GoogleNet”,文章说是为了向早期的LeNet致敬。在2014年的ImageNet图像识别挑战赛中,⼀个名叫GoogLeNet的⽹络结构⼤放异彩 。它虽然在名字上向LeNet致敬 阅读全文
posted @ 2020-03-21 22:39 Someday&Li 阅读(198) 评论(0) 推荐(0)
摘要:转载博客:https://www.cnblogs.com/superdrew/p/10325028.html 我们在GitHub上使用最多的除了开源自己的项目之外,就是利用GitHub找到自己想要的开源项目学习了。 那么,如何快速的使用GitHub找到自己想要的开源项目就很重要了! 快速查询的技巧如 阅读全文
posted @ 2020-03-20 15:40 Someday&Li 阅读(508) 评论(0) 推荐(0)
摘要:在图形学中涉及多种数据结构,下面介绍三种常见的数据结构: 一、翼边数据结构( Half Edge) 翼边数据结构(又名“半边数据结构”)由美国Stanford大学的B. G. Baumgar t提出,用于存储镶嵌几何模型。对于管理镶嵌格发生变化的模型是很有用的,如在子分或者简化过程中发生变化。 翼边 阅读全文
posted @ 2020-03-19 22:22 Someday&Li 阅读(1429) 评论(1) 推荐(0)
摘要:LeNet、AlexNet和VGG在设计上的共同之处是:先以由卷积层构成的模块充分抽取空间特征,再以由全连接层构成的模块来输出分类结果。 其中,AlexNet和VGG对LeNet的改进主要在于如何对这两个模块加宽(增加通道数)和加深。本节我们介绍⽹络中的⽹络(NiN)—— 它提出了另外⼀个思路,即串 阅读全文
posted @ 2020-03-18 17:59 Someday&Li 阅读(392) 评论(0) 推荐(0)
摘要:今日学习内容(“显式表达法”更新在 "Lecture10_几何1(介绍)_GAMES101 课堂笔记" 中): 第一部分:曲线(Curves) 曲线在建筑设计、动画中三维建模场景中被广泛应用,以及字体中也被广泛应用,因此无论字体多么大,均不会出现锯齿现象。 一、贝塞尔曲线(Bézier Curves 阅读全文
posted @ 2020-03-17 23:27 Someday&Li 阅读(699) 评论(1) 推荐(0)
摘要:AlexNet在LeNet的基础上增加了3个卷积层。但AlexNet作者对它们的卷积窗⼝、输出通道数和构造顺序均做了⼤量的调整。虽然AlexNet指明了深度卷积神经⽹络可以取得出⾊的结果,但并没有提供简单的规则以指导后来的研究者如何设计新的⽹络。 VGG,它的名字来源于论⽂作者所在的实验室Visua 阅读全文
posted @ 2020-03-16 22:29 Someday&Li 阅读(316) 评论(0) 推荐(0)
摘要:在上一篇提到的LeNet中,虽然LeNet可以在早期的⼩数据集上取得好的成绩,但是在更⼤的真实数据集上的表现并不尽如⼈意。因为: 1. 神经⽹络计算复杂;训练⼀个多通道、多层和有⼤量参数的卷积神经⽹络在当年很难完成。 2. 当时没有⼤量深⼊研究参数初始化和⾮凸优化算法等诸多领域,导致复杂的神经⽹络的 阅读全文
posted @ 2020-03-15 22:41 Someday&Li 阅读(762) 评论(0) 推荐(0)
摘要:课程回顾 这是课程7、8、9的上课内容: 本节课内容: 几何基础 几何实例 几何的表示法 几何应用举例 通过几个例子开启本节课的总结,下面主要列举4个例子: 下图中是一些不同几何形状的杯子,会涉及如何设计出这些形状; 下图中的汽车引擎盖是非常光滑的曲面,会涉及如何用计算机模拟出如此光滑的面; 下图中 阅读全文
posted @ 2020-03-14 23:48 Someday&Li 阅读(970) 评论(3) 推荐(0)
摘要:论文名称:You only look once unified real time object detection "论文链接" YOLO v1算法是发表在CVPR 2016年的文章,。YOLO是目前比较流行的object detection算法,速度快且结构简单,其他的object detect 阅读全文
posted @ 2020-03-14 01:03 Someday&Li 阅读(360) 评论(0) 推荐(0)
摘要:最近在进行图形学相关实验时,会用到VS 2017,虚拟机里的VScode卡得小宇宙爆发,索性就在本地进行配置吧。这个过程主要需要配置 opencv 和 Eigen 线代库。下面是配置教程: 一、VS2017 配置OpenCV 这是我看到的最详细的配置教程: "VS2017配置opencv教程(超详细 阅读全文
posted @ 2020-03-12 21:46 Someday&Li 阅读(731) 评论(0) 推荐(1)
摘要:今天主要学习了利用torch中的nn模块定义 类,下面的代码包含对于模型类的构建以及参数访问,简便的可以使用‘net = nn.Sequential(NestMLP(), nn.Linear(30, 20), FancyMLP())’构建模型,默认进行初始化。 输出结果 输出结果 输出结果 输出结果 阅读全文
posted @ 2020-03-11 12:07 Someday&Li 阅读(333) 评论(0) 推荐(0)
摘要:? 阅读全文
posted @ 2020-03-10 23:11 Someday&Li 阅读(218) 评论(0) 推荐(0)
摘要:卷积层尝试解决这两个问题。① 卷积层保留输⼊形状,使图像的像素在⾼和宽两个⽅向上的相关 性均可能被有效识别;② 卷积层通过滑动窗⼝将同⼀卷积核与不同位置的输⼊重复计算,从⽽ 避免参数尺⼨过⼤。 卷积层网络就是含有卷积层的网络。 阅读全文
posted @ 2020-03-09 23:35 Someday&Li 阅读(251) 评论(0) 推荐(0)
摘要:在图像处理中,锯齿一直是一个大问题,因此图像中的抗锯齿(Anti_aliaing,简称AA),也被称为边缘柔化、消除混叠、抗图像折叠有损等。AA主要是处理图像有锯齿的边缘,使其图像更清晰清晰。下面有一些反锯齿的常用技术: 一、多重采样抗锯齿(MSAA) 多重采样抗锯齿(MultiSampling A 阅读全文
posted @ 2020-03-08 23:37 Someday&Li 阅读(43015) 评论(1) 推荐(2)
摘要:今天两眼睁着的时间是假期创纪录的多,但是没有好好利用吧。因为与太多人进行联系,干扰了自己的生活规律,粗略估计社交时间比平日多花掉了4个多时。哈哈哈哈,想到一个有趣的个性签名:忙到没朋友。哈哈哈^_^ 上午主要是配置了图形学课程中用到的虚拟机,记录下配置过程中遇到的小问题吧: 一、网盘下载 Pando 阅读全文
posted @ 2020-03-07 23:47 Someday&Li 阅读(362) 评论(0) 推荐(0)
摘要:今日学习内容概览: 第一部分:光栅化 一、画家算法(Painter’s Algorithm) 画家算法的操作是 从远至进 一层一层画,最终将画像完整。 但是,缺点是如果画像没有很明显的逻辑层次,画家算法将不适用。例如下图: 为了解决这个矛盾,于是进行改进发明了 ” Z Buffer “ 算法。 二、 阅读全文
posted @ 2020-03-05 22:41 Someday&Li 阅读(609) 评论(1) 推荐(0)
摘要:⽐赛数据分为训练数据集和测试数据集。两个数据集都包括每栋房⼦的特征,如街道类型、建造年份、房顶类型、地下室状况等特征值。这些特征值有连续的数字、离散的标签甚⾄是缺失值“na”。只有训练数据集包括了每栋房⼦的价格,也就是标签。我们可以访问⽐赛⽹⻚,下载这些数据集。 一、导包 二、导入数据 输出结果: 阅读全文
posted @ 2020-03-04 22:50 Someday&Li 阅读(1391) 评论(0) 推荐(0)
摘要:一、问题描述: 主要出现了‘ValueError: numpy.ufunc size changed, may indicate binary incompatibility. Expected 216 from C header, got 192 from PyObject’问题。全部错误代码如下 阅读全文
posted @ 2020-03-03 18:54 Someday&Li 阅读(5401) 评论(0) 推荐(0)
摘要:本博客仅为自己查阅方便,所有内容均转自其他博主博客,部分内容可见图片水印,以及点击以下参考链接: 【1】( 推荐! ) "LaTeX各种命令汇总" 【2】 "Markdown符号汇总" 一、LaTeX各种命令汇总[1] ( 一 )函数、符号及特殊字符声调 ( 二 )微分 ( 三 )集合 ( 四 )逻 阅读全文
posted @ 2020-03-02 23:07 Someday&Li 阅读(1633) 评论(0) 推荐(0)
摘要:一、衰减和爆炸 当神经⽹络的层数较多时,模型的数值稳定性容易变差。例如假设权重分别为0.2和5,$0.2^{30} \approx 1\times 10^{ 21}$(此时得到一个很小的数,会导致神经元学习非常慢,从而导致 衰减 。),$5^{30} \approx 9\times 10^{20}$ 阅读全文
posted @ 2020-03-02 22:43 Someday&Li 阅读(234) 评论(0) 推荐(0)
摘要:一、正向传播 ( 一 ) 定义 正向传播是指对神经⽹络沿着从输⼊层到输出层的顺序,依次计算并存储模型的中间变量(包括输出)。 为简单起⻅,假设输⼊是⼀个特征为 $x \in R^d$ 的样本,且不考虑偏差项,那么中间变量: $$z = W^{(1)}x$$ 其中 $$W^{(1)} \in R^{h 阅读全文
posted @ 2020-03-01 22:11 Someday&Li 阅读(1083) 评论(0) 推荐(0)