摘要:
在我们接触神经网络过程中,很容易看到就是这样一个式子,g(wx+b),其中w,x均为向量.比如下图所示: 加入激活函数为g(x),我们就可以用公式g(w1x1+w2x2+b)(注:1,2均为下标,公众号很难打,下面所有的公式均是)来表示神经元的输出。 其中b为神经元的偏置.那么w,b这些参数的作用有 阅读全文
posted @ 2019-07-30 22:38
你的雷哥
阅读(1182)
评论(0)
推荐(0)
摘要:
Q1代价函数 (1)假设神经网络的训练样本有m个,每一个包含一组输入x和一组输出信号y,L表示神经网络的层数,Sl表示每一层的神经元个数,SL代表最后一层中处理单元的个数。 则代价函数为(同样不对θ0正则化): Q2反向传播算法 误差计算公式,注意第一列作为输入是没有误差的。 前向传播算法: 用δ表 阅读全文
posted @ 2019-07-30 22:29
你的雷哥
阅读(741)
评论(0)
推荐(0)
摘要:
Q1非线性假设 (1)无论线性回归还是逻辑回归当特征量太多时,计算的负荷会非常大。如50x50像素有2500特征,如果两两组合将会有25002/2个(接近300万个特征)。普通的线性回归和逻辑回归模型不能有效处理这么多特征,这时候需要用神经网络了。 Q2神经元和大脑 大脑的某一块可以经过学习,学会其 阅读全文
posted @ 2019-07-30 18:16
你的雷哥
阅读(554)
评论(0)
推荐(0)

浙公网安备 33010602011771号