摘要:
from mxnet import ndh_forward = nd.array([1,2])h_backward = nd.array([3,4])h_bi = nd.concat(h_forward,h... 阅读全文
posted @ 2019-07-11 22:53
蔡军帅
阅读(211)
评论(0)
推荐(0)
摘要:
不同时刻,C内h1,h2,h3所占的权重不同,权重是a。权重的求法用了softmax。e的求法和St-1和ht有关。 不同的注意力机制就是对a的设计不同。 原论文的e的取法如下图。 v,W是要学习的参数,有点像多层感知机。 阅读全文
posted @ 2019-07-11 22:53
蔡军帅
阅读(2110)
评论(0)
推荐(0)
摘要:
超高维度分析,N*P的矩阵,N为样本个数,P为指标,N<<P PCA:抓住对y对重要的影响因素 主要有三种:PCA,因子分析,回归方程+惩罚函数(如LASSO) 为了降维,用更少的变量解决问题,如果是二维的,那么就是找到一条线,要使这些点再线上的投影最大,投影最大,就是越分散,就考虑方差最大。 阅读全文
posted @ 2019-07-11 11:48
蔡军帅
阅读(863)
评论(3)
推荐(0)
摘要:
超高维度分析,N*P的矩阵,N为样本个数,P为指标,N conomy #### 作线性回归> lm.sol summary(lm.sol)Call:lm(formula = y ~ x1 + x2 + x3, d... 阅读全文
posted @ 2019-07-11 11:48
蔡军帅
阅读(224)
评论(0)
推荐(0)
摘要:
#########################################0808聚类分析X<-data.frame( x1=c(2959.19, 2459.77, 1495.63, 1046.33,... 阅读全文
posted @ 2019-07-11 10:33
蔡军帅
阅读(276)
评论(0)
推荐(0)
摘要:
#########################################0808聚类分析 X<-data.frame( x1=c(2959.19, 2459.77, 1495.63, 1046.33, 1303.97, 1730.84, 1561.86, 1410.11, 3712.31, 2207.58, 2629.16, 1844.78... 阅读全文
posted @ 2019-07-11 10:33
蔡军帅
阅读(650)
评论(0)
推荐(0)
摘要:
Fisher就是找一个线L使得组内方差小,组间距离大。即找一个直线使得d最大。 阅读全文
posted @ 2019-07-11 09:13
蔡军帅
阅读(1217)
评论(0)
推荐(0)
摘要:
Fisher就是找一个线L使得组内方差小,组间距离大。即找一个直线使得d最大。 ####################################1、判别分析,线性判别:2、分层抽样#install.p... 阅读全文
posted @ 2019-07-11 09:13
蔡军帅
阅读(219)
评论(0)
推荐(0)
浙公网安备 33010602011771号