随笔分类 - 杂学
摘要:Chapter 4 Inverse Function Theorem 这个章节讲得很好, 还引用了庄子秋水中的一段话, 大佬啊. 4.1 The Inverse Function Theorem 映射$F: \mathbb^n \rightarrow \mathbbm$在$p_0$可微, 若存在$D
阅读全文
摘要:JOHNNY HU, BAIRE ONE FUNCTIONS. 一些基本的定义(诸如逐点收敛, 一致收敛$F_{\sigma}$集合等)就不叙述了. 定义 Definition: 令$D\subseteq \mathbb$, 函数$f:D\rightarrow \mathbb\(, 若存在连续函数列
阅读全文
摘要:Richard D. Gill, Product integration 一般的积分是指黎曼积分, 其计算是把区域无限细分求和并取极限, 有另外一种积分是把区域无限细分求积并取极限, 这个在生存模型中有很多应用. 生存模型 设生存的时间为随机变量$T$, 则生存函数定义为 \[ S(t):= \ma
阅读全文
摘要:整理一下, 关于卷积层梯度反向传递的过程. 参考 参考 注: $s\not=1$的部分是自己推得, 可能是错的(自己想了很久, 感觉错的机会不大). 符号 输入: \(x \in \mathbb{R}^{N \times C \times H \times W}\); 权重: \(w \in \ma
阅读全文
摘要:[TOC] "H. E. Krogstad, TMA 4180 Optimeringsteori KARUSH KUHN TUCKER THEOREM" KKT条件在处理有约束问题的时候很有用, 但是对KKT的适用性一直不是很理解, 看了这篇讲解整理一下. 基本内容 问题 $$ \tag{1} \m
阅读全文
摘要:[TOC] Lam R, Willcox K, Wolpert D H, et al. Bayesian Optimization with a Finite Budget: An Approximate Dynamic Programming Approach[C]. neural informa
阅读全文
摘要:[TOC] "Hennig P, Schuler C J. Entropy search for information efficient global optimization[J]. Journal of Machine Learning Research, 2012, 13(1): 1809
阅读全文
摘要:Rosasco L, De Vito E, Caponnetto A, et al. Are loss functions all the same[J]. Neural Computation, 2004, 16(5): 1063-1076. @article{rosasco2004are, ti
阅读全文
摘要:[TOC] "Neal R. M. , MCMC Using Hamiltonian Dynamics[J]. arXiv: Computation, 2011: 139 188." @article{neal2011mcmc, title={MCMC Using Hamiltonian Dynam
阅读全文
摘要:[TOC] 茆诗松, 汤银才, 《贝叶斯统计》, 中国统计出版社, 2012.9. 这本书错误有点多, 所以我后面写得可能也有很多错误的地方. python def posterior_random_walk(x, y, beta, mu, sigma2): theta = lambda x: np
阅读全文
摘要:[TOC] 《数值分析》 David Kincaid, Ward Cheney 著, 王国荣 余耀明 徐兆亮 译. 因为看的论文里用到了样条函数,故查阅了一些资料并整理一下. 定义 样条函数是由一些具有某些连续性条件得子空间上得分段多项式构成. 给定n+1个点$t_0, t_1, \ldots, t
阅读全文
摘要:[TOC] 支持向量机 本节将依SMO算法训练线性SVM, 核方法的使用可以很方便的进行扩展. 下面的Point的类中的: $$ g(x) = \sum_{i=1}^N \alpha_i y_i k(x_i, x) + b, $$ $$ e = g y, yg = y g $$ 下面是Points类
阅读全文
摘要:[TOC] "参考博客python实现时间序列分析 ning ML" 时间序列的测试 平稳性检验 时序图检验 该序列具有明显的趋势性,所以不是通常的平稳序列 自相关图检验 [ 1. 0.91392186 0.86822948 0.81369058 0.76064724 0.68729172 0.63
阅读全文
摘要:矩阵微分 \(X \in \mathbb{R}^{m \times n}\), \(Y \in \mathbb{R}^{n \times p}\) 定义: \[ \mathrm{d}X = \left [ \begin{array}{ccc} \mathrm{d}X_{11} & \ldots &
阅读全文
摘要:[TOC] 符号说明 矩阵$A \in \mathbb{R}^{m \times n}$ $\|A\|$:矩阵$A$的谱范数 $\|A\|_ $: 矩阵$A$的核范数 $\|A\|_F$: 矩阵$A$的F范数 $\mathrm{rank}()$表示矩阵的秩。 [Jensen’s inequality
阅读全文
摘要:[TOC] Belabbas M A, Wolfe P J. Fast Low Rank Approximation for Covariance Matrices[C]. IEEE International Workshop on Computational Advances in Multi
阅读全文
摘要:[TOC] Drineas P, Kannan R, Mahoney M W, et al. Fast Monte Carlo Algorithms for Matrices II: Computing a Low Rank Approximation to a Matrix[J]. SIAM Jo
阅读全文
摘要:这些天看了一些关于采样矩阵(大概是这么翻译的)的论文,简单做个总结。 FAST MONTE CARLO ALGORITHMS FOR MATRICES I: APPROXIMATING MATRIX MULTIPLICATION 算法如下: 目的是为了毕竟矩阵的乘积AB, 以CR来替代。 其中右上角
阅读全文
摘要:论文背景: 面对来袭的数据,连续样本不一定是不相关的,甚至不是同分布的。 当前,大部分在线PCA都只关注准确性,而忽视时效性! 噪声?数据缺失,观测有偏,重大异常? 论文内容: Section 2 Online Settings Online PCA, 就是在观察到$x1, x2, x3, \dot
阅读全文
摘要:[toc] Oja's rule 这俩天看了Oja的俩篇论文,被其中的证明弄得云里雾里,但愿我的理解没有出太大问题吧。 "Oja's rule Wiki" "Oja's rule 知乎" A Simplified Neuron Model as a Principal Component Analy
阅读全文

浙公网安备 33010602011771号