摘要: 比如这样一种格式化的文本文件,文件说明及下载地址:/pub/machine-learning-databases/statlog/german/ 的索引 fid = fopen('german.data', 'r');C = textscan(fid, '%s, %... 阅读全文
posted @ 2017-03-02 23:04 未雨愁眸 阅读(186) 评论(0) 推荐(0)
摘要: 比如这样一种格式化的文本文件,文件说明及下载地址:/pub/machine-learning-databases/statlog/german/ 的索引 fid = fopen('german.data', 'r');C = textscan(fid, '%s, %... 阅读全文
posted @ 2017-03-02 23:04 未雨愁眸 阅读(1076) 评论(0) 推荐(0)
摘要: 数据预处理(normalize、scale)0. 使用 PCA 降维matlab:[coeff, score] = pca(A);reducedDimension = coeff(:,1:5);reducedData = A * reducedDimension;1... 阅读全文
posted @ 2017-03-02 21:37 未雨愁眸 阅读(1997) 评论(0) 推荐(0)
摘要: 数据预处理(normalize、scale)0. 使用 PCA 降维matlab:[coeff, score] = pca(A);reducedDimension = coeff(:,1:5);reducedData = A * reducedDimension;1... 阅读全文
posted @ 2017-03-02 21:37 未雨愁眸 阅读(339) 评论(0) 推荐(0)
摘要: 屈原不姓屈,姓芈; 和芈月是一家子;1. 文学常识中国第一个写七言诗的人:曹丕;2. 违反直觉刘邦:生于前256年,嬴政:生于前259年,也即嬴政只比刘邦大了 3 岁;3. 年龄更是个问题作为政治联姻,刘备娶孙权的妹妹孙尚香时,刘备 49 岁,孙尚香 19 岁;诸葛亮... 阅读全文
posted @ 2017-03-02 20:34 未雨愁眸 阅读(208) 评论(0) 推荐(0)
摘要: 屈原不姓屈,姓芈; 和芈月是一家子;1. 文学常识中国第一个写七言诗的人:曹丕;2. 违反直觉刘邦:生于前256年,嬴政:生于前259年,也即嬴政只比刘邦大了 3 岁;3. 年龄更是个问题作为政治联姻,刘备娶孙权的妹妹孙尚香时,刘备 49 岁,孙尚香 19 岁;诸葛亮... 阅读全文
posted @ 2017-03-02 20:34 未雨愁眸 阅读(419) 评论(0) 推荐(0)
摘要: 方便起见,本文仅以三层的神经网络举例。f(⋅):表示激励函数xi:表示输入层;yj:表示中间的隐层; yj=f(netj)netj=∑i=0nvijxiok:表示输出层,dk 则表示期望输出; ok=f(netk)netk=∑j=0mwjkyjvij,wjk 分别... 阅读全文
posted @ 2017-03-02 19:12 未雨愁眸 阅读(826) 评论(0) 推荐(0)
摘要: 方便起见,本文仅以三层的神经网络举例。f(⋅):表示激励函数xi:表示输入层;yj:表示中间的隐层; yj=f(netj)netj=∑i=0nvijxiok:表示输出层,dk 则表示期望输出; ok=f(netk)netk=∑j=0mwjkyjvij,wjk 分别... 阅读全文
posted @ 2017-03-02 19:12 未雨愁眸 阅读(689) 评论(0) 推荐(0)
摘要: 机器学习基础(七)——sigmoid 函数的性质 机器学习基础(五十六)—— tanh、sign 与 softsign 深度学习基础(十二)—— ReLU vs PReLUsigmoid:单极性,连续,可导;tanh:双极性,连续,可导;注意 tanh(双曲正切函数)... 阅读全文
posted @ 2017-03-02 17:28 未雨愁眸 阅读(327) 评论(0) 推荐(0)
摘要: 机器学习基础(七)——sigmoid 函数的性质 机器学习基础(五十六)—— tanh、sign 与 softsign 深度学习基础(十二)—— ReLU vs PReLUsigmoid:单极性,连续,可导;tanh:双极性,连续,可导;注意 tanh(双曲正切函数)... 阅读全文
posted @ 2017-03-02 17:28 未雨愁眸 阅读(355) 评论(0) 推荐(0)
摘要: gcf:获取当前显示图像的句柄;默认 plot 的 position 是 [232 246 560 420]0. save>> A = randn(3, 4);>> B = 'hello world';>> save 'data.mat' A B ... 阅读全文
posted @ 2017-03-02 12:59 未雨愁眸 阅读(842) 评论(0) 推荐(0)
摘要: gcf:获取当前显示图像的句柄;默认 plot 的 position 是 [232 246 560 420]0. save>> A = randn(3, 4);>> B = 'hello world';>> save 'data.mat' A B ... 阅读全文
posted @ 2017-03-02 12:59 未雨愁眸 阅读(289) 评论(0) 推荐(0)
摘要: 1. 使用 title 的 ‘position’ 属性进行设置plot(1:10, 1:10), title('y=x', 'position', [5.5, 0])2. 使用 xlabelplot(1:10, 1:10), xlabel('y=x')imshow('... 阅读全文
posted @ 2017-03-02 12:41 未雨愁眸 阅读(1534) 评论(0) 推荐(0)
摘要: 1. 使用 title 的 ‘position’ 属性进行设置plot(1:10, 1:10), title('y=x', 'position', [5.5, 0])2. 使用 xlabelplot(1:10, 1:10), xlabel('y=x')imshow('... 阅读全文
posted @ 2017-03-02 12:41 未雨愁眸 阅读(353) 评论(0) 推荐(0)
摘要: 权值越多,需要的样本量就会很大; 也即需要提供与网络规模相适应的大规模数据;1. 模型的理解能学习和存贮大量的输入-输出模式映射关系,而无需事前揭示描述和定义这种映射关系的数学方程。BP 神经网络等价于一个通用的逼近器(universal approximator);... 阅读全文
posted @ 2017-03-02 11:00 未雨愁眸 阅读(147) 评论(0) 推荐(0)
摘要: 权值越多,需要的样本量就会很大; 也即需要提供与网络规模相适应的大规模数据;1. 模型的理解能学习和存贮大量的输入-输出模式映射关系,而无需事前揭示描述和定义这种映射关系的数学方程。BP 神经网络等价于一个通用的逼近器(universal approximator);... 阅读全文
posted @ 2017-03-02 11:00 未雨愁眸 阅读(185) 评论(0) 推荐(0)
摘要: 1. 输入样本的处理听起来似乎是一个比较奇怪的说法,不对输入做任何处理的话,是无法求解异或问题的。这里提供一种对输入进行处理的可行方式:对输入样本做必要的升维处理,其实质是引入非线性分量。如下图所示: X = [0, 0, 0; 0, 1, 1; 1, 0, 1; ... 阅读全文
posted @ 2017-03-02 10:42 未雨愁眸 阅读(165) 评论(0) 推荐(0)
摘要: 1. 输入样本的处理听起来似乎是一个比较奇怪的说法,不对输入做任何处理的话,是无法求解异或问题的。这里提供一种对输入进行处理的可行方式:对输入样本做必要的升维处理,其实质是引入非线性分量。如下图所示: X = [0, 0, 0; 0, 1, 1; 1, 0, 1; ... 阅读全文
posted @ 2017-03-02 10:42 未雨愁眸 阅读(264) 评论(0) 推荐(0)
摘要: 1. δ 学习规则1986 年,由认知心理学家 McClelland 和 Rumellhart 在神经网络训练中引入了 Δ 学习规则,该规则亦可称为连续感知器学习规则(与离散感知器学习规则相并行)。Δ 规则的学习信号规定为:r=(dj−f(wTjx))f′(wTjx)... 阅读全文
posted @ 2017-03-02 09:31 未雨愁眸 阅读(986) 评论(0) 推荐(0)
摘要: 1. δ 学习规则1986 年,由认知心理学家 McClelland 和 Rumellhart 在神经网络训练中引入了 Δ 学习规则,该规则亦可称为连续感知器学习规则(与离散感知器学习规则相并行)。Δ 规则的学习信号规定为:r=(dj−f(wTjx))f′(wTjx)... 阅读全文
posted @ 2017-03-02 09:31 未雨愁眸 阅读(3855) 评论(0) 推荐(0)