01 2021 档案

摘要:今天的部分是数据降维。讲解的是PCA和自编码器。就如其名,数据降维就是降低数据的维度。实际获取的数据中可能维度很多,而其中更是有很多的数据可能存在线性关系造成的冗余等。个人理解的数据降维就是将数据的维度降低,提取出“最有代表性的N个维度”。PCA算法本身就是求数据矩阵的特征向量和特征值,然后根据设定 阅读全文
posted @ 2021-01-31 14:08 水無月鈴乃 阅读(71) 评论(0) 推荐(0)
摘要:今天的部分是机器学习中的聚类问题,这是典型的无监督学习的应用。并且详细讲解了第一次课时提及过的K-Means算法,以及GMM(高斯混合模型)和EM算法。其中K-Means算法个人的理解为 1.随机寻找K(所分类个数)个中心点 2.将所有样本分类至离其最近的中心点 3.对各中心点所属的样本求新的中心点 阅读全文
posted @ 2021-01-30 15:47 水無月鈴乃 阅读(75) 评论(0) 推荐(0)
摘要:今天的部分是模型提升。主要讲解的是决策树的原理。个人对于决策树的理解是用空间划分的思想,使用多次二分类的回归对数据进行分类。个人理解的决策树的核心问题是“各个节点如何选取进行划分”,用通俗的话来说就是“如何问好问题”。而以前听闻过的随机森林算法,本质则是多个决策树的结合,用类似于投票的形式来做出决策 阅读全文
posted @ 2021-01-29 18:38 水無月鈴乃 阅读(45) 评论(0) 推荐(0)
摘要:今天的部分是机器学习中的分类。所讲解的分类方式是感知机、支持向量机和逻辑回归。其中感知机有详细讲解,后两个是仅大致讲解。所列3项本质都是用梯度下降(或随机梯度下降)的方法进行最优化。而Sigmoid函数的应用是在逻辑回归中使用,作为取结果的“概率”,因而其中也用到了大量的概率论中的知识。相比于梯度下 阅读全文
posted @ 2021-01-28 21:45 水無月鈴乃 阅读(53) 评论(0) 推荐(0)
摘要:今天看的是机器学习十讲里的第二讲,回归。整个回归的原理讲解中充斥了大量的线性代数概念(本质都是用线性回归方法求解线性及非线性问题)。虽然由于线性代数很长时间没看,加上有的概念课上也讲的不多,有很多地方只能算是半懂,但也解决了先前所看的视讯中的一些参数的意义的理解,回答了一部分的“为什么”。 阅读全文
posted @ 2021-01-27 21:44 水無月鈴乃 阅读(73) 评论(0) 推荐(0)
摘要:今天系主任要求观看机器学习十讲,今天观看的是第一讲。这讲是对于机器学习的基本知识讲解,例如3种训练种类等,并在最后有两个案例的示例(这两个案例是系主任和我们说过的)。这部分可以作为对先前的深度学习的铺垫,从这一部分就解决了我先前的一小部分疑惑。 阅读全文
posted @ 2021-01-26 17:47 水無月鈴乃 阅读(44) 评论(0) 推荐(0)
摘要:本次的视讯也是明显的被截取感。讲的是加载一个别人所训练好的VGG网络模型的直到加载每一层的W和B的过程。不过仍然有些许不懂且未讲到的地方。不知道是文件格式所限还是什么,如果给出模型的人未给出模型的数据结构,将需要一层层地shape去自行分析,这会非常麻烦。虽然有些无关,但是这个案例让我让认识到了撰写 阅读全文
posted @ 2021-01-24 20:07 水無月鈴乃 阅读(62) 评论(0) 推荐(0)
摘要:今天的部分是简易的神经网络结构的文件保存。可以通过给定的函数保存每次epoch的各个节点数据,并且可以通过参数制定只保存最新的第N个,之后可以通过另一个函数读取出来直接使用。不过实例中可以看出是基于TF1.X的Session机制的,在网上查到的适用于TF2.0的与其有一定不同。 阅读全文
posted @ 2021-01-23 19:58 水無月鈴乃 阅读(68) 评论(0) 推荐(0)
摘要:今天的部分是简易卷积神经网络的后半部分。经过一个简单讲解之后我算是明白了我以前对卷积神经网络的理解可能有一些偏差。同时,这部分是流程的定义,其中pooling,卷积计算等都是通过对应函数经行定义,无需关心实现的细节。在对流程进行定义之后,剩下的部分写法就和先前的案例一模一样了。框架的优点就在于此。 阅读全文
posted @ 2021-01-22 21:19 水無月鈴乃 阅读(65) 评论(0) 推荐(0)
摘要:今天是卷积神经网络模型架构的部分。和先前一样,是被硬性截取出来的架构搭建部分。 案例仍然是使用MNIST数据集的数字识别,本篇主要讲解的是模型的构建。先要画出整个卷积神经网络的模型,然后再初始化各个变量(权重项和偏置项)。但是个人虽然看了了解了各个参数对应的什么意义并在自行网路上看了一定的讲解,但对 阅读全文
posted @ 2021-01-21 22:31 水無月鈴乃 阅读(78) 评论(0) 推荐(0)
摘要:今天是简易神经网络模型架构的后半部分。 结合后半部分来看个人感觉其实和先前的逻辑回归、线性回归非常相似。由于使用的是框架,很多时候就调用提供的函数算权重、优化网络等,视讯中也说了这些细节实际上的实现比较复杂,但是我们不用了解直接拿来用就行了。 以前系主任说这些实际上无需关心具体算法实现,选用好合适的 阅读全文
posted @ 2021-01-20 18:24 水無月鈴乃 阅读(75) 评论(0) 推荐(0)
摘要:今天是神经网络架构模型的部分。与上次一样,这次的结尾很唐突,只讲到了神经网络的初始化步骤。同时,根据讲解的一些基本知识和设计感觉可能会用到上节里用于训练逻辑回归的方法 阅读全文
posted @ 2021-01-19 17:54 水無月鈴乃 阅读(95) 评论(0) 推荐(0)
摘要:今天看了之后的视讯才发现所给之视频教程关于这个的部分近乎是被强行分开来的。 但就算连在一起也未讲得多细致,很多地方仍有缺失感。 不过对于上篇所使用的网路上的代码的理解也好了很多——毕竟两者之间除了所使用的函数等因为版本问题略有不同之外,整体两者之间几乎是一模一样,包括参数名。 同时也理解到了可能无法 阅读全文
posted @ 2021-01-18 15:09 水無月鈴乃 阅读(70) 评论(0) 推荐(0)
摘要:今天是看的逻辑回归的案例。和先前一样,由于使用的TF2.0改用了网络上的代码。 同时,虽然代码成功运行,但是逻辑回归算法的原理和很多地方的“为什么这么写”仍然没有弄得很清楚。目前正在参考一篇博客(链接https://blog.csdn.net/weixin_39445556/article/deta 阅读全文
posted @ 2021-01-17 12:37 水無月鈴乃 阅读(91) 评论(0) 推荐(0)
摘要:今天是Mnist数据集的简介,这个数据集看样子是一个对于文字(数字)识别的数据集。 但是很不幸,在个人所安装的TF2.0中无法通过 from tensorflow.examples.tutorials.mnist import input_data 导入Mnist数据集,使用拷贝到的数据集运行亦会在 阅读全文
posted @ 2021-01-16 13:58 水無月鈴乃 阅读(73) 评论(0) 推荐(0)
摘要:今天是写一个线性回归的实例。 但是由于TF1.X和TF2.X的区别,所给的教学视频里的实例已完全不可用(除非禁用掉全部TF2.0特性),因而转为自行找到了一个实例修改为视讯里的参数后运行。不过所给实例里的两个参数并未给出,个人只能指定一个猜测的数值。 代码如下(来源:https://blog.csd 阅读全文
posted @ 2021-01-15 12:56 水無月鈴乃 阅读(74) 评论(0) 推荐(0)
摘要:今天是TensorFlow的基本的操作的学习。同时由于TF2.0的方法缺失通过compat.v1使用了TF1.X的方法 阅读全文
posted @ 2021-01-14 15:41 水無月鈴乃 阅读(57) 评论(0) 推荐(0)
摘要:今天主要是基本的TensorFlow的Tensor相关概念,基本写法(但由于教程为TF1.X而个人所使用是TF2.X,出现了问题,现已解决) 今天最大的问题是TensorFlow1.x及TensorFlow2.x之间的差异导致的代码不兼容。 在视频的示例代码中,需要通过tf.global_varia 阅读全文
posted @ 2021-01-13 19:41 水無月鈴乃 阅读(71) 评论(0) 推荐(0)
摘要:今天看的是基本的TensorFlow安装配置。视讯中推荐的是使用Anaconda代为安装,但个人出于节约电脑空间(以前由于一些原因已安装过很多Python库,若又用Anaconda过于重复累赘浪费空间)等的考虑采用pip安装。IDE则选用的Visual Studio 2017。一开始安装的时候遇到了 阅读全文
posted @ 2021-01-12 12:34 水無月鈴乃 阅读(74) 评论(0) 推荐(0)
摘要:TensorFlow是Google开发并维护的一个基于数据流编程的符号数学系统,被广泛应用于各类机器学习算法的编程实现,其前身是Google的神经网络算法库DistBelief 阅读全文
posted @ 2021-01-11 11:57 水無月鈴乃 阅读(57) 评论(0) 推荐(0)