摘要:
方便起见,本文仅以三层的神经网络举例。f(⋅):表示激励函数xi:表示输入层;yj:表示中间的隐层; yj=f(netj)netj=∑i=0nvijxiok:表示输出层,dk 则表示期望输出; ok=f(netk)netk=∑j=0mwjkyjvij,wjk 分别... 阅读全文
posted @ 2017-03-02 19:12
未雨愁眸
阅读(689)
评论(0)
推荐(0)
摘要:
机器学习基础(七)——sigmoid 函数的性质 机器学习基础(五十六)—— tanh、sign 与 softsign 深度学习基础(十二)—— ReLU vs PReLUsigmoid:单极性,连续,可导;tanh:双极性,连续,可导;注意 tanh(双曲正切函数)... 阅读全文
posted @ 2017-03-02 17:28
未雨愁眸
阅读(327)
评论(0)
推荐(0)
摘要:
机器学习基础(七)——sigmoid 函数的性质 机器学习基础(五十六)—— tanh、sign 与 softsign 深度学习基础(十二)—— ReLU vs PReLUsigmoid:单极性,连续,可导;tanh:双极性,连续,可导;注意 tanh(双曲正切函数)... 阅读全文
posted @ 2017-03-02 17:28
未雨愁眸
阅读(355)
评论(0)
推荐(0)
摘要:
gcf:获取当前显示图像的句柄;默认 plot 的 position 是 [232 246 560 420]0. save>> A = randn(3, 4);>> B = 'hello world';>> save 'data.mat' A B ... 阅读全文
posted @ 2017-03-02 12:59
未雨愁眸
阅读(842)
评论(0)
推荐(0)
摘要:
gcf:获取当前显示图像的句柄;默认 plot 的 position 是 [232 246 560 420]0. save>> A = randn(3, 4);>> B = 'hello world';>> save 'data.mat' A B ... 阅读全文
posted @ 2017-03-02 12:59
未雨愁眸
阅读(289)
评论(0)
推荐(0)
摘要:
1. 使用 title 的 ‘position’ 属性进行设置plot(1:10, 1:10), title('y=x', 'position', [5.5, 0])2. 使用 xlabelplot(1:10, 1:10), xlabel('y=x')imshow('... 阅读全文
posted @ 2017-03-02 12:41
未雨愁眸
阅读(1534)
评论(0)
推荐(0)
摘要:
1. 使用 title 的 ‘position’ 属性进行设置plot(1:10, 1:10), title('y=x', 'position', [5.5, 0])2. 使用 xlabelplot(1:10, 1:10), xlabel('y=x')imshow('... 阅读全文
posted @ 2017-03-02 12:41
未雨愁眸
阅读(353)
评论(0)
推荐(0)
摘要:
权值越多,需要的样本量就会很大; 也即需要提供与网络规模相适应的大规模数据;1. 模型的理解能学习和存贮大量的输入-输出模式映射关系,而无需事前揭示描述和定义这种映射关系的数学方程。BP 神经网络等价于一个通用的逼近器(universal approximator);... 阅读全文
posted @ 2017-03-02 11:00
未雨愁眸
阅读(146)
评论(0)
推荐(0)
摘要:
权值越多,需要的样本量就会很大; 也即需要提供与网络规模相适应的大规模数据;1. 模型的理解能学习和存贮大量的输入-输出模式映射关系,而无需事前揭示描述和定义这种映射关系的数学方程。BP 神经网络等价于一个通用的逼近器(universal approximator);... 阅读全文
posted @ 2017-03-02 11:00
未雨愁眸
阅读(185)
评论(0)
推荐(0)
摘要:
1. 输入样本的处理听起来似乎是一个比较奇怪的说法,不对输入做任何处理的话,是无法求解异或问题的。这里提供一种对输入进行处理的可行方式:对输入样本做必要的升维处理,其实质是引入非线性分量。如下图所示: X = [0, 0, 0; 0, 1, 1; 1, 0, 1; ... 阅读全文
posted @ 2017-03-02 10:42
未雨愁眸
阅读(165)
评论(0)
推荐(0)
浙公网安备 33010602011771号