摘要: 梯度下降求参数 LMS stands for “least mean squares” batch gradient descent stochastic gradient descent 直接求参数: 概率解释 e(i) are distributed IID (independently and ident... 阅读全文
posted @ 2013-08-28 11:09 gghost 阅读(499) 评论(0) 推荐(0)
摘要: 我们项目开发过程中难免要迁移工程,如对工程重命名,或将一个或多个项目添加到一个解决方案中,如果迁移方法不正确,或设置问题,总会出一些编译问题,对熟悉大侠来说可谓驾轻就熟,但对像我一样的初学者来说就会无从下手了,所以也查阅了相关资料再加上个人亲身实验,谈谈操作的相关步骤及遇到问题的解决办法。 一、重命名解决方案/项目步骤 如将一个AAA项目重命名为BBB,一般是用sln解决方案文件打开工程的,打... 阅读全文
posted @ 2013-08-14 12:47 gghost 阅读(481) 评论(0) 推荐(0)
摘要: 1.基本原理 神经网络里最简单的模型,就是感知器。感知器可以实现N维空间的线性划分。如二维空间,下图就是用一条直线将(0 0)分为一类,其余四点为一类。实现了与门。 如果要将以上四点划分为(0 1)(1 0)为一类,(1 1)(0 0)为一类,显然是无法用直线将其分开。如果是三维空间,就是平面划分。如果N维,即超平面。 下图为一个神经元模型,输入为pX1的向量,输出为a。感知器工作时,首要要学习,也就是对w和b进行调整。首先要有n个P向量,和一个你期望的该p向量得到的t值。w和b是不为0的随机值,训练的目的就是调整w和b的值,使e=t-a的值不断接近0。当所有样本输出的值都等于t时,学习结束。 阅读全文
posted @ 2013-03-28 09:47 gghost 阅读(2933) 评论(0) 推荐(0)