摘要:
比如这样一种格式化的文本文件,文件说明及下载地址:/pub/machine-learning-databases/statlog/german/ 的索引 fid = fopen('german.data', 'r');C = textscan(fid, '%s, %... 阅读全文
posted @ 2017-03-02 23:04
未雨愁眸
阅读(186)
评论(0)
推荐(0)
摘要:
比如这样一种格式化的文本文件,文件说明及下载地址:/pub/machine-learning-databases/statlog/german/ 的索引 fid = fopen('german.data', 'r');C = textscan(fid, '%s, %... 阅读全文
posted @ 2017-03-02 23:04
未雨愁眸
阅读(1076)
评论(0)
推荐(0)
摘要:
数据预处理(normalize、scale)0. 使用 PCA 降维matlab:[coeff, score] = pca(A);reducedDimension = coeff(:,1:5);reducedData = A * reducedDimension;1... 阅读全文
posted @ 2017-03-02 21:37
未雨愁眸
阅读(1997)
评论(0)
推荐(0)
摘要:
数据预处理(normalize、scale)0. 使用 PCA 降维matlab:[coeff, score] = pca(A);reducedDimension = coeff(:,1:5);reducedData = A * reducedDimension;1... 阅读全文
posted @ 2017-03-02 21:37
未雨愁眸
阅读(339)
评论(0)
推荐(0)
摘要:
屈原不姓屈,姓芈; 和芈月是一家子;1. 文学常识中国第一个写七言诗的人:曹丕;2. 违反直觉刘邦:生于前256年,嬴政:生于前259年,也即嬴政只比刘邦大了 3 岁;3. 年龄更是个问题作为政治联姻,刘备娶孙权的妹妹孙尚香时,刘备 49 岁,孙尚香 19 岁;诸葛亮... 阅读全文
posted @ 2017-03-02 20:34
未雨愁眸
阅读(208)
评论(0)
推荐(0)
摘要:
屈原不姓屈,姓芈; 和芈月是一家子;1. 文学常识中国第一个写七言诗的人:曹丕;2. 违反直觉刘邦:生于前256年,嬴政:生于前259年,也即嬴政只比刘邦大了 3 岁;3. 年龄更是个问题作为政治联姻,刘备娶孙权的妹妹孙尚香时,刘备 49 岁,孙尚香 19 岁;诸葛亮... 阅读全文
posted @ 2017-03-02 20:34
未雨愁眸
阅读(419)
评论(0)
推荐(0)
摘要:
方便起见,本文仅以三层的神经网络举例。f(⋅):表示激励函数xi:表示输入层;yj:表示中间的隐层; yj=f(netj)netj=∑i=0nvijxiok:表示输出层,dk 则表示期望输出; ok=f(netk)netk=∑j=0mwjkyjvij,wjk 分别... 阅读全文
posted @ 2017-03-02 19:12
未雨愁眸
阅读(826)
评论(0)
推荐(0)
摘要:
方便起见,本文仅以三层的神经网络举例。f(⋅):表示激励函数xi:表示输入层;yj:表示中间的隐层; yj=f(netj)netj=∑i=0nvijxiok:表示输出层,dk 则表示期望输出; ok=f(netk)netk=∑j=0mwjkyjvij,wjk 分别... 阅读全文
posted @ 2017-03-02 19:12
未雨愁眸
阅读(689)
评论(0)
推荐(0)
摘要:
机器学习基础(七)——sigmoid 函数的性质 机器学习基础(五十六)—— tanh、sign 与 softsign 深度学习基础(十二)—— ReLU vs PReLUsigmoid:单极性,连续,可导;tanh:双极性,连续,可导;注意 tanh(双曲正切函数)... 阅读全文
posted @ 2017-03-02 17:28
未雨愁眸
阅读(327)
评论(0)
推荐(0)
摘要:
机器学习基础(七)——sigmoid 函数的性质 机器学习基础(五十六)—— tanh、sign 与 softsign 深度学习基础(十二)—— ReLU vs PReLUsigmoid:单极性,连续,可导;tanh:双极性,连续,可导;注意 tanh(双曲正切函数)... 阅读全文
posted @ 2017-03-02 17:28
未雨愁眸
阅读(355)
评论(0)
推荐(0)
摘要:
gcf:获取当前显示图像的句柄;默认 plot 的 position 是 [232 246 560 420]0. save>> A = randn(3, 4);>> B = 'hello world';>> save 'data.mat' A B ... 阅读全文
posted @ 2017-03-02 12:59
未雨愁眸
阅读(842)
评论(0)
推荐(0)
摘要:
gcf:获取当前显示图像的句柄;默认 plot 的 position 是 [232 246 560 420]0. save>> A = randn(3, 4);>> B = 'hello world';>> save 'data.mat' A B ... 阅读全文
posted @ 2017-03-02 12:59
未雨愁眸
阅读(289)
评论(0)
推荐(0)
摘要:
1. 使用 title 的 ‘position’ 属性进行设置plot(1:10, 1:10), title('y=x', 'position', [5.5, 0])2. 使用 xlabelplot(1:10, 1:10), xlabel('y=x')imshow('... 阅读全文
posted @ 2017-03-02 12:41
未雨愁眸
阅读(1534)
评论(0)
推荐(0)
摘要:
1. 使用 title 的 ‘position’ 属性进行设置plot(1:10, 1:10), title('y=x', 'position', [5.5, 0])2. 使用 xlabelplot(1:10, 1:10), xlabel('y=x')imshow('... 阅读全文
posted @ 2017-03-02 12:41
未雨愁眸
阅读(353)
评论(0)
推荐(0)
摘要:
权值越多,需要的样本量就会很大; 也即需要提供与网络规模相适应的大规模数据;1. 模型的理解能学习和存贮大量的输入-输出模式映射关系,而无需事前揭示描述和定义这种映射关系的数学方程。BP 神经网络等价于一个通用的逼近器(universal approximator);... 阅读全文
posted @ 2017-03-02 11:00
未雨愁眸
阅读(147)
评论(0)
推荐(0)
摘要:
权值越多,需要的样本量就会很大; 也即需要提供与网络规模相适应的大规模数据;1. 模型的理解能学习和存贮大量的输入-输出模式映射关系,而无需事前揭示描述和定义这种映射关系的数学方程。BP 神经网络等价于一个通用的逼近器(universal approximator);... 阅读全文
posted @ 2017-03-02 11:00
未雨愁眸
阅读(185)
评论(0)
推荐(0)
摘要:
1. 输入样本的处理听起来似乎是一个比较奇怪的说法,不对输入做任何处理的话,是无法求解异或问题的。这里提供一种对输入进行处理的可行方式:对输入样本做必要的升维处理,其实质是引入非线性分量。如下图所示: X = [0, 0, 0; 0, 1, 1; 1, 0, 1; ... 阅读全文
posted @ 2017-03-02 10:42
未雨愁眸
阅读(165)
评论(0)
推荐(0)
摘要:
1. 输入样本的处理听起来似乎是一个比较奇怪的说法,不对输入做任何处理的话,是无法求解异或问题的。这里提供一种对输入进行处理的可行方式:对输入样本做必要的升维处理,其实质是引入非线性分量。如下图所示: X = [0, 0, 0; 0, 1, 1; 1, 0, 1; ... 阅读全文
posted @ 2017-03-02 10:42
未雨愁眸
阅读(264)
评论(0)
推荐(0)
摘要:
1. δ 学习规则1986 年,由认知心理学家 McClelland 和 Rumellhart 在神经网络训练中引入了 Δ 学习规则,该规则亦可称为连续感知器学习规则(与离散感知器学习规则相并行)。Δ 规则的学习信号规定为:r=(dj−f(wTjx))f′(wTjx)... 阅读全文
posted @ 2017-03-02 09:31
未雨愁眸
阅读(986)
评论(0)
推荐(0)
摘要:
1. δ 学习规则1986 年,由认知心理学家 McClelland 和 Rumellhart 在神经网络训练中引入了 Δ 学习规则,该规则亦可称为连续感知器学习规则(与离散感知器学习规则相并行)。Δ 规则的学习信号规定为:r=(dj−f(wTjx))f′(wTjx)... 阅读全文
posted @ 2017-03-02 09:31
未雨愁眸
阅读(3855)
评论(0)
推荐(0)
浙公网安备 33010602011771号