摘要: 最近需要写一篇关于NeRF的文献综述,看了看网上有关NeRF的所有教程和笔记,感觉对于初入门的初学者并不是很友好,在这里开个坑,准备更新NeRF的知识和相关的论文 综述如下: 神经辐射场在视图合成和三维重建方法中的应用 计算机科学与技术 2113615 张铭徐 摘 要: 神经辐射场方法(NeRF)作 阅读全文
posted @ 2022-11-21 18:40 落筱 阅读(1073) 评论(0) 推荐(0)
摘要: 本周主要完成了assignment2中的connected_layer部分的代码,跟assignment1中的two_layer_net相比,虽然整体思路都是实现全连接的网络,但是connect_layer可以实现任意多层的全连接神经网络,代码相较于两层全连接,大同小异,不同之处在于需要利用循环结构 阅读全文
posted @ 2022-11-20 16:43 落筱 阅读(41) 评论(0) 推荐(0)
摘要: 两层全连接神经网络的内容要比想象中的多很多,代码量也很多,在cs231n只用了15分钟讲解的东西我用了一周半的时间才完全的消化理解,这周终于完成了全连接神经网络博客的书写https://www.cnblogs.com/Lbmttw/p/16858127.html,两层全连接神经网络的结构是输入层 隐 阅读全文
posted @ 2022-11-13 17:53 落筱 阅读(45) 评论(0) 推荐(0)
摘要: 这一周主要焦点在于实现反向传播和全连接两层神经网络的具体代码以及书写博客记录课程学习的心得体会,目前完成了反向传播的具体代码以及相应博客的书写,完成了assignment1中figure的SVM版提取特征的线性分类器。反向传播能够很好的解决我们的映射函数特别复杂,无法手动求解梯度进行计算时的情况:反 阅读全文
posted @ 2022-11-07 18:11 落筱 阅读(65) 评论(0) 推荐(0)
摘要: 在前面我们详细的讨论过softmax损失函数以及SVM损失函数,以及应用了支持向量机进行图片分类的任务,不妨先复习一下支持向量机相关的思想内核:支持向量机想要寻求一组映射关系f(x)=wx+b,先将每一个图片的所有像素值都转换成矩阵,然后寻求一个权重矩阵w,使得f(x)=wx+b最后的得分矩阵(或向 阅读全文
posted @ 2022-11-04 17:35 落筱 阅读(581) 评论(0) 推荐(0)
摘要: 在前面我们学习了SVM损失函数和softmax损失函数,我们优化权重矩阵w的具体思路便是让损失函数最小化,还记得损失函数的定义吗? 没错,损失函数长这样,其中,Wj为权重矩阵的第j个列向量,xi为第i个train image reshape得到的列向量(其中的每一个维度为Xi的所对应的特征或者说属性 阅读全文
posted @ 2022-10-31 18:40 落筱 阅读(216) 评论(0) 推荐(0)
摘要: 本周完成了SVM课程笔记的阅读,包括SVM的基本原理以及SVM的优化过程,以及实现了SVM的两种损失函数(svm以及softmax)的线性分类器,以及学习了反向传播以及神经网络的初步。其中:svm在测试集上的准确率为37.4%,softmax损失函数在测试集上的准确率为35.6%,相较于KNN的27 阅读全文
posted @ 2022-10-30 20:36 落筱 阅读(73) 评论(0) 推荐(0)
摘要: 之前学习的KNN算法属于直接将所有的训练图片数据化,根据图片的像素值进行判断,最简单的NN算法是用与待判断图片的差距最小(距离最近)的那张图片的类别当做此图片的类别,我们不难看到,1NN算法的正确性很差,相较于完全随机的10%的正确率,其正确率也不过只有20%左右,正确率低。我们用KNN算法则是用与 阅读全文
posted @ 2022-10-26 22:35 落筱 阅读(122) 评论(0) 推荐(0)
摘要: 本周从周一开始学习cs231n的相关内容,看完了231n的课程介绍,背景介绍,图像分类的KNN和SVM算法,完成了作业中assignment1的KNN部分的代码(附件),思考总结了KNN的实现原理:即将原本的training data直接作为input读入,获取其中每一个pixel的值,然后对每一个 阅读全文
posted @ 2022-10-24 16:12 落筱 阅读(125) 评论(0) 推荐(0)
摘要: 最近要开始转专业了 放弃了chem和mse保研 决定去cs卷了 现在开始要做复健训练了 阅读全文
posted @ 2022-09-08 20:59 落筱 阅读(41) 评论(0) 推荐(0)