摘要:
https://setosa.io/ev/markov-chains/ 可以通过调节样本的参数,理解模型在干些什么 阅读全文
posted @ 2022-03-20 21:36
bH1pJ
阅读(51)
评论(0)
推荐(0)
摘要:
坑 正交意味着完全的不相关。 相关性刻画的是两个随机变量是否存在线性关系。 独立刻画的是两个变量之间是否存在联系。 X和Y不相关,意味着两者不存在线性关系,但是不能保证也没有非线性的关系。 而 X和Y相互独立,意味着两者不仅没有线性关系,其他的关系也没有... 阅读全文
posted @ 2022-03-20 21:36
bH1pJ
阅读(93)
评论(0)
推荐(0)
摘要:
https://www.quora.com/What-is-the-difference-between-PCA-and-ICA PCA,朝着最大方差的方向寻找基向量; ICA,朝着最大独立性的方向寻找基向量; 阅读全文
posted @ 2022-03-20 21:36
bH1pJ
阅读(70)
评论(0)
推荐(0)
摘要:
kurtosis该如何理解? 峰度可以用来刻画随机变量的非高斯性; https://blog.csdn.net/qq_36523839/article/details/88671873 https://stats.stackexchange.com/q... 阅读全文
posted @ 2022-03-20 21:36
bH1pJ
阅读(73)
评论(0)
推荐(0)
摘要:
how to generate data based on known covariance matrix https://stats.stackexchange.com/questions/120179/generating-data-with-a-g... 阅读全文
posted @ 2022-03-20 21:36
bH1pJ
阅读(18)
评论(0)
推荐(0)
摘要:
我们知道PCA降维的目标函数是尽可能地保留原始样本X中的方差信息。 所以降维后样本的协方差矩阵其对角线上元素尽可能得大我是理解,并认可的。 但为什么非对角线元素均为零呢? 降维之后的样本,各个维度之间的相关性完全被切除了。 以下是实验code 降维前 ... 阅读全文
posted @ 2022-03-20 21:36
bH1pJ
阅读(53)
评论(0)
推荐(0)
摘要:
应该按照列来理解; 阅读全文
posted @ 2022-03-20 21:36
bH1pJ
阅读(6)
评论(0)
推荐(0)
摘要:
np.dot(M1,M2) 阅读全文
posted @ 2022-03-20 21:36
bH1pJ
阅读(26)
评论(0)
推荐(0)
摘要:
请参考这篇博客 https://blog.csdn.net/monk1992/article/details/107019784 调整前↑ 调整后↓ 可以进行交互了 如何调整↓ 阅读全文
posted @ 2022-03-20 21:36
bH1pJ
阅读(25)
评论(0)
推荐(0)
摘要:
如何理解某种算法,具体掌握到什么程度时,可以说满意了? 阅读全文
posted @ 2022-03-20 21:36
bH1pJ
阅读(5)
评论(0)
推荐(0)
浙公网安备 33010602011771号