摘要: 梯度下降 由于梯度下降法中负梯度方向作为变量的变化方向,所以有可能导 致最终求解的值是局部最优解,所以在使用梯度下降的时候,一般需 要进行一些调优策略: 学习率的选择: 学习率过大,表示每次迭代更新的时候变化比较大,有可能 会跳过最优解; 学习率过小,表示每次迭代更新的时候变化比较小,就会导 致迭代 阅读全文
posted @ 2019-07-24 17:05 Timcode 阅读(1252) 评论(0) 推荐(0) 编辑
摘要: 求矩阵的秩 设 ,已知r(A)=2,则参数x,y分别是 解:任意三阶子式=0,有二阶子式≠0,但是这些子式比较多,可以使用初等变换,因为初等变换不改变矩阵的秩,可以将矩阵通过初等行(列)变换,化为行阶梯矩阵,有几行不等于0,秩就是几。 行列式的转换 Am×nx=0只有零解 <=> r(A)=n 特别 阅读全文
posted @ 2019-07-24 14:45 Timcode 阅读(2113) 评论(0) 推荐(0) 编辑
摘要: mnist手写体识别 Mnist数据集可以从官网下载,网址: http://yann.lecun.com/exdb/mnist/ 下载下来的数据集被分成两部分:55000行的训练数据集(mnist.train)和10000行的测试数据集(mnist.test)。每一个MNIST数据单元有两部分组成: 阅读全文
posted @ 2019-07-24 11:53 Timcode 阅读(3069) 评论(0) 推荐(0) 编辑
摘要: SoftMax回归 对于MNIST中的每个图像都是零到九之间的手写数字。所以给定的图像只能有十个可能的东西。我们希望能够看到一个图像,并给出它是每个数字的概率。 例如,我们的模型可能会看到一个九分之一的图片,80%的人肯定它是一个九,但是给它一个5%的几率是八分之一(因为顶级循环),并有一点概率所有 阅读全文
posted @ 2019-07-24 11:51 Timcode 阅读(1832) 评论(0) 推荐(0) 编辑