摘要:
[[VAE]] 模型过程分析 这部分的信息摘录自变分自编码器(一):原来是这么一回事 在整个VAE模型传播的过程中,我们并没有去使用 $p(Z)$ (隐变量空间的分布) 是正态分布的假设,我们用的是==假设 $p(Z \mid X)$ (后验分布) 是正态分布==。 具体来说, 给定一个真实样本 $ 阅读全文
posted @ 2022-10-09 13:27
MarkL124950
阅读(146)
评论(0)
推荐(0)
摘要:
VAE的实现及其原理分析 [[2021-09-20]] 需要补全 对VAE的分析和介绍 [[VAE 推导]] 模型总结 VAE 构建了编码器encoder和解码器decoder, 可与GAN对比理解 encoder的作用是训练出一个能够生成正态分布参数$\mu$, log$\sigma^{2}$ 的 阅读全文
posted @ 2022-10-09 13:26
MarkL124950
阅读(228)
评论(0)
推荐(0)
摘要:
Attention is all we need 一、研究背景 一、引入背景与分析 生物学背景 视觉注意力机制是人类视觉所特有的大脑信号处理机制。人类视觉通过快速扫描全局图像,获得需要重点关注的目标区域,也就是一般所说的注意力焦点,而后对这一区域投入更多注意力资源,以获取更多所需要关注目标的细节信息 阅读全文
posted @ 2022-10-09 13:25
MarkL124950
阅读(248)
评论(0)
推荐(0)
摘要:
The DataLoader is one of the most commonly used classes in PyTorch. Also, it is one of the first you learn. This class has a lot of parameters (14), b 阅读全文
posted @ 2022-10-09 13:24
MarkL124950
阅读(93)
评论(0)
推荐(0)
摘要:
消息传递概念 $$ \mathbf{x}_i^{(k)} = \gamma^{(k)} \left( \mathbf{x}i^{(k-1)}, \square{j \in \mathcal{N}(i)} , \phi^{(k)}\left(\mathbf{x}_i^{(k-1)}, \mathbf{ 阅读全文
posted @ 2022-10-09 13:23
MarkL124950
阅读(165)
评论(0)
推荐(0)
摘要:
STRATEGIES FOR PRE-TRAINING GRAPH NEURAL NETWORKS 原文链接:STRATEGIES FOR PRE-TRAINING GRAPH NEURAL NETWORKS Abstract 本文主要提出了一个自监督学习的方法,用来做 gnn 的与训练,这个策略成 阅读全文
posted @ 2022-10-09 13:18
MarkL124950
阅读(319)
评论(0)
推荐(0)
摘要:
有限维度的数据必然存在一个拉伸函数将数据映射到高维并且满足线性分布。也就是说必然存在一个完美的拉伸函数。 现在我告诉你,我们有一种取巧的办法。使得我们根本不用计算拉伸函数,有时候甚至你都不需要知道拉伸函数是什么,我们依然能够做预测。这个无比巧妙的简便方法,帮助我们跳过了拉伸的步骤,这个方法就叫做核方 阅读全文
posted @ 2022-10-09 13:03
MarkL124950
阅读(88)
评论(0)
推荐(0)

浙公网安备 33010602011771号