会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
小恶魔oo
用于日常记录学习笔记。时间线模式。
博客园
首页
新随笔
联系
订阅
管理
2020年9月16日
2020/09/16 谱聚类
摘要: 博客园-谱聚类(spectral clustering)原理总结
阅读全文
posted @ 2020-09-16 15:20 小恶魔oo
阅读(63)
评论(0)
推荐(0)
2020年3月16日
2020/03/16 AttentionGAN的注意力机制理解
摘要: 论文地址: "Attention GAN for Object Transfiguration in Wild Images" 最近学习了一下ECCV2018的attentionGAN,文章中attention能自动注意到 __前景目标__ 的现象让我感觉很神奇,同时又很困惑,在这个以CycleGA
阅读全文
posted @ 2020-03-16 13:26 小恶魔oo
阅读(4047)
评论(0)
推荐(0)
2020年3月5日
2020/03/05 生成模型&生成学习(Generative Learning)的流程
摘要: 在之前的学习 "2020/01/02 深度学习数学基础学习——朴素贝叶斯" 中,大概的了解了生成学习的原理,但是对算法实现的 __完整流程__ 不够清晰,所以今天想通过对生成学习回顾,明确一下生成学习的流程框架。 学习资料: "斯坦福CS229 note2 Generative Learning a
阅读全文
posted @ 2020-03-05 12:05 小恶魔oo
阅读(582)
评论(0)
推荐(0)
2020年3月4日
2020/03/04 协方差、特征向量的统计意义理解与图像分布的理解
摘要: 理解协方差 方差 首先,我们设$X$表示随机变量,它的观测样本是$(x_{1}, x_{2}, ..., x_, ...)\(。有了观测样本,我们可以计算出观测样本的平均值\)\bar$。进一步,我们可以利用公式: \(\sigma_{x}^{2}=\frac{1}{n-1} \sum_{i=1}^
阅读全文
posted @ 2020-03-04 14:17 小恶魔oo
阅读(534)
评论(0)
推荐(0)
2020年2月28日
2020/02/28 高斯混合模型以及GMM聚类
摘要: 什么是高斯混合模型 高斯混合模型(GMM)认为,一个数据分布可以有几个高斯分布组合而成。 参考博客:| 知乎 | 高斯混合模型聚类 对于一个多类别数据集合,所有类别各自的数据分布的组合就是整体数据分布。这非常符合高斯混合模型理论。我们可以用一个生活化一点的例子来说明高斯混合模型聚类。假设有一堆颜色相
阅读全文
posted @ 2020-02-28 21:27 小恶魔oo
阅读(239)
评论(0)
推荐(0)
2020/02/26 CapsuleNet ( 胶囊网络 ) 的初认识
摘要: 提出动机 __训练层面__ 1. CNN对见过的样本有好的泛化能力,而没见过的样本则比较差(例:看过正脸很难识别侧脸)。这就是CNN的归纳偏置(inductive bias)。 2. 为了取得对大部分情况都好的泛化能力,需要各种情况的训练样本,这样大大增加训练代价。 3. Capsule希望能够学习
阅读全文
posted @ 2020-02-28 11:11 小恶魔oo
阅读(601)
评论(0)
推荐(0)
2020年2月15日
2020/02/15 理解图论中的拉普拉斯算子与拉普拉斯矩阵
摘要: 学习资料 1. "知乎 【其实贼简单】拉普拉斯算子和拉普拉斯矩阵" 2. "CSDN 我见过最清晰的–理解梯度,散度,旋度" 3. "拉普拉斯矩阵的性质"
阅读全文
posted @ 2020-02-15 12:35 小恶魔oo
阅读(836)
评论(0)
推荐(0)
2020年1月2日
2020/01/02 降维方法:图,拉普拉斯特征映射(Laplacian Eigenmaps)
摘要: "博客" "代码"
阅读全文
posted @ 2020-01-02 21:34 小恶魔oo
阅读(247)
评论(0)
推荐(0)
2019年12月30日
2019/12/30 贝叶斯估计、最大似然估计、最大后验概率估计
摘要: 问题:这些估计都是干嘛用的?它们存在的意义的是什么? 有一个受损的骰子,看起来它和正常的骰子一样,但实际上因为受损导致各个结果出现的概率不再是均匀的 \(\frac{1}{6}\) 了。我们想知道这个受损的骰子各个结果出现的实际概率。准确的实际概率我们可能永远无法精确的表示出了,但是我们可以通过做大
阅读全文
posted @ 2019-12-30 22:54 小恶魔oo
阅读(571)
评论(0)
推荐(0)
2019年11月24日
2019/11/21 Residual Learning论文学习
摘要: 原始residual论文 "Deep Residual Learning for Image Recognition" 1. 训练深度神经网络的难处: 梯度爆炸/梯度消失 batchnorm等一系列方法较好的解决了这个问题 加深网络,模型退化(degradation) 2. residual着重要解
阅读全文
posted @ 2019-11-24 14:37 小恶魔oo
阅读(230)
评论(0)
推荐(0)
下一页
公告