摘要: BRDF101 概述 本文基于知乎Maple对brdf的文章,在此基础又收集了一些其它来源的关于brdf的文章,希望能够完全理解记忆相关知识 关于Jakub Boksansky的文章,看的过程中又去搜集了很多其它文章来理解,发现已经超出了我目前的知识厚度,因此只会简单的翻译一下我能理解的部分,感兴趣 阅读全文
posted @ 2024-04-25 17:24 dyccyber 阅读(69) 评论(0) 推荐(0) 编辑
摘要: d3d12龙书阅读 绘制几何体(上) 本节主要介绍了构建一个简单的彩色立方体所需流程与重要的api 下面主要结合立方体代码分析本节相关知识 顶点 输入装配器阶段的输入 首先,我们需要定义立方体的八个顶点 顶点结构体: struct Vertex { XMFLOAT3 Pos; XMFLOAT4 Co 阅读全文
posted @ 2024-03-27 13:49 dyccyber 阅读(107) 评论(0) 推荐(1) 编辑
摘要: d3d12龙书阅读 d3d渲染流水线 输入装配器阶段 在输入装配器阶段,会从显存中读取顶点与索引这种几何数据,然后根据图形基元的类型,根据索引将顶点组装起来。 d3d中的图形基元 我们来看看几种常见的图形基元类型: typedef enum D3D12_PRIMITIVE_TOPOLOGY_TYPE 阅读全文
posted @ 2024-03-16 17:24 dyccyber 阅读(141) 评论(0) 推荐(0) 编辑
摘要: d3d12龙书阅读 Direct3D的初始化 使用d3d我们可以对gpu进行控制与编程,以硬件加速的方式来完成3d场景的渲染,d3d层与硬件驱动会将相应的代码转换成gpu可以执行的机器指令,与之前的版本相比,d3d12大大减少了cpu的开销,同时也改进了对多线程的支持,但是使用的api也更加复杂。 阅读全文
posted @ 2024-03-12 19:57 dyccyber 阅读(37) 评论(0) 推荐(0) 编辑
摘要: d3d12龙书阅读 数学基础 向量代数、矩阵代数、变换 directx 采用左手坐标系 点积与叉积 点积与叉积的正交化 使用点积进行正交化 使用叉积进行正交化 矩阵与矩阵乘法 转置矩阵 单位矩阵 逆矩阵 矩阵行列式 变换 旋转矩阵 坐标变换 利用DirectXMath库进行向量运算、矩阵运算以及空间 阅读全文
posted @ 2024-02-01 20:09 dyccyber 阅读(64) 评论(0) 推荐(1) 编辑
摘要: 透视深度插值矫正与抗锯齿分析 深度插值的差错原因 透视深度插值公式推导 games101中的错误 msaa与ssaa简要定义 games101中ssaa的实现 games101中msaa的实现 深度插值的差错原因 当投影的图形与投影的平面不平行时,这时进行透视投影,从上图中可以看出,投影平面上的线段 阅读全文
posted @ 2023-12-03 16:42 dyccyber 阅读(154) 评论(0) 推荐(0) 编辑
摘要: 在学习了一些games101的课程之后,我还是有点困惑,尤其是对于课程讨论的空间的变换,幸而最近在做games101的第五次作业时,查询资料找到了scratchpixel这个网站,看了一些文章,终于把脑子里的一团乱麻组织起来了,也就有了这篇关于图形学的第一篇博客。 想要更好的理解这篇博客,强烈推荐先 阅读全文
posted @ 2023-11-02 20:39 dyccyber 阅读(285) 评论(0) 推荐(1) 编辑
摘要: 这节课中介绍了循环神经网络的第二部分,主要引入了注意力机制,介绍了注意力机制的应用以及如何理解,在此基础上建立了注意力层以及transformer架构 注意力机制 注意力机制 应用与理解 注意力层 transformer 注意力机制 上次我们没有提到sequence to sequence的RNN结 阅读全文
posted @ 2023-10-31 11:16 dyccyber 阅读(190) 评论(0) 推荐(0) 编辑
摘要: 这节课中介绍了循环神经网络的第一部分,主要介绍了循环神经网络的基本概念,vanilla循环网络架构,RNN的一些应用,vanilla架构的问题,更先进的rnn架构比如GRU和LSTM 循环神经网络基本知识 vanilla循环网络架构 应用与理解 vanilla架构的问题 LSTM vanilla循环 阅读全文
posted @ 2023-10-30 16:57 dyccyber 阅读(293) 评论(0) 推荐(1) 编辑
摘要: 这节课中介绍了训练神经网络的第二部分,包括学习率曲线,超参数优化,模型集成,迁移学习 训练神经网络2 学习率曲线 超参数优化 模型集成 迁移学习 学习率曲线 在训练神经网络时,一个常见的思路就是刚开始迭代的时候学习率较大,然后随着迭代次数的增加,学习率逐渐下降,下面我们就来介绍几种学习率下降的方法: 阅读全文
posted @ 2023-10-28 19:19 dyccyber 阅读(182) 评论(0) 推荐(1) 编辑