摘要:梯度下降法作为一种反向传播算法最早在上世纪由geoffrey hinton等人提出并被广泛接受。最早GD由很多研究团队各自独立提出来,可大都无人问津,而hinton做的研究完整表述了GD方法,同时hinton为自己的研究多次走动人际关系使得其论文出现在了当时的《nature》上,因此GD得到了第一次 阅读全文
posted @ 2019-10-06 18:33 dynmi 阅读(903) 评论(1) 推荐(6) 编辑
摘要:本文仅对常见的无监督学习算法进行了简单讲述,其他的如自动编码器,受限玻尔兹曼机用于无监督学习,神经网络用于无监督学习等未包括。同时虽然整体上分为了聚类和降维两大类,但实际上这两类并非完全正交,很多地方可以相互转化,还有一些变种的算法既有聚类功能又有降维功能,一些新出现的和尚在开发创造中的无监督学习算 阅读全文
posted @ 2019-10-04 00:14 dynmi 阅读(9969) 评论(6) 推荐(6) 编辑
摘要:Intro 如果想省时间,建议直接看:Rainbow Deep Q Network(Vanilla DQN) 抓两个点: Replay Buffer Target Network 详细见:https://www.cnblogs.com/dynmi/p/13994342.html 更新evaluate 阅读全文
posted @ 2020-12-06 19:57 dynmi 阅读(18) 评论(0) 推荐(0) 编辑
摘要:Intro 交叉熵,用来衡量两个随机变量之间的相似度。 KL散度(相对熵),量化两种概率分布P和Q之间差异。 计算公式 交叉熵 \(CE(p,q) = - (\sum_{i=1}^{n}[p_{i}*log(q_{i}) + (1-p_{i})*log(1-q_{i})])\) KL散度 \(D_{ 阅读全文
posted @ 2020-12-05 21:57 dynmi 阅读(13) 评论(0) 推荐(0) 编辑
摘要:./keep 阅读全文
posted @ 2020-12-03 17:59 dynmi 阅读(20) 评论(0) 推荐(0) 编辑
摘要:Intro 目标 掌握线性回归算法 掌握逻辑回归算法 掌握k-means算法 掌握PCA算法 理解线性支持向量机/非线性支持向量机算法 理解凸优化的梯度下降算法 对机器学习中的术语有一定的简单认识与理解 必啃资料 谷歌机器学习入门课程:https://developers.google.cn/mac 阅读全文
posted @ 2020-12-03 11:07 dynmi 阅读(36) 评论(0) 推荐(0) 编辑
摘要:./keep 阅读全文
posted @ 2020-11-25 15:52 dynmi 阅读(18) 评论(0) 推荐(0) 编辑
摘要:intro 以下均基于分组交换技术 我们将以下这样的一段连接称为一段链路 假设发送端到接收端间有N条链路,对于对一个分组而言,忽略其他因素,端到端总时延$d(end-end) = N × ( d(proc) + d(queue) + d(trans) + d(prop) )$ statement 处 阅读全文
posted @ 2020-11-25 15:43 dynmi 阅读(74) 评论(0) 推荐(0) 编辑
摘要:intro 分组交换是以报文交换为基础的,所以分组交换其实也可以叫做“报文分组交换”。 statement 报文的传送过程依赖于“存储转发机制”, 从发送端开始,每经过一个交换机,该交换机的任务是: 接收完整的报文,然后对报文进行缓存,此即为“存储” 等到下一个交换机节点空闲的时候,再将该报文发送给 阅读全文
posted @ 2020-11-25 15:30 dynmi 阅读(25) 评论(0) 推荐(0) 编辑
摘要:intro The support-vector mechine is a new learning machine for two-group classification problems. The machine conceptually implements the following id 阅读全文
posted @ 2020-11-25 14:33 dynmi 阅读(136) 评论(0) 推荐(0) 编辑
摘要:intro 刚看完《Circle Loss: A Unified Perspective of Pair Similarity Optimization》,随手写了一个overview。 一句话总结这篇paper干了什么事情 "an unified perspective of learning w 阅读全文
posted @ 2020-11-24 19:28 dynmi 阅读(27) 评论(0) 推荐(0) 编辑
摘要:Intro 这篇blog是我在看过Logan等人的“implementation matters in deep policy gradients: a case study on ppo and trpo“之后的总结。 reward clipping clip the rewards within 阅读全文
posted @ 2020-11-24 18:08 dynmi 阅读(41) 评论(0) 推荐(0) 编辑