上一页 1 ··· 8 9 10 11 12 13 14 15 16 ··· 19 下一页
摘要: 名称 DALLE2: Hierarchical Text-Conditional Image Generation with CLIP Latents 也叫 UnCLIP 时间:22.04 机构:OpenAI TL;DR OpenAI的首篇从CLIP的image embedding生成图像的方法,实 阅读全文
posted @ 2024-03-19 23:42 fariver 阅读(300) 评论(0) 推荐(0)
摘要: GLIDE: Towards Photorealistic Image Generation and Editing with Text-Guided Diffusion Models GLIDE(Guided Language to Image Diffusion for Generation a 阅读全文
posted @ 2024-03-18 23:46 fariver 阅读(410) 评论(0) 推荐(0)
摘要: DALLE: Zero-Shot Text-to-Image Generation DALLE: Zero-Shot Text-to-Image Generation 时间:21.02(与CLIP同期论文) 机构:OpenAI TL;DR 提出一个将文本与图像作为token,利用Transforme 阅读全文
posted @ 2024-03-16 23:45 fariver 阅读(242) 评论(0) 推荐(0)
摘要: 名称 Latent Diffusion Model, High-Resolution Image Synthesis with Latent Diffusion Models 时间:21.12 机构:runway TL;DR 这篇文章介绍了一种名为潜在扩散模型(Latent Diffusion Mo 阅读全文
posted @ 2024-03-14 21:35 fariver 阅读(1649) 评论(0) 推荐(0)
摘要: 名称 DDIM DENOISING DIFFUSION IMPLICIT MODELS TL;DR 这篇文章介绍了一种名为去噪扩散隐式模型(Denoising Diffusion Implicit Models, DDIMs)的新型生成模型,它是基于去噪扩散概率模型(DDPMs)的改进版本。DDIM 阅读全文
posted @ 2024-03-12 00:12 fariver 阅读(592) 评论(0) 推荐(0)
摘要: 名称 DDPM: Denoising Diffusion Probabilistic Models 时间:2020.12 TL;DR 这篇文章介绍了一种名为去噪扩散概率模型(Denoising Diffusion Probabilistic Models, DDPM)的新型生成模型。DDPM通过在图 阅读全文
posted @ 2024-03-11 00:11 fariver 阅读(1988) 评论(0) 推荐(0)
摘要: 名称 VAE原文 TL;DR 这篇文章介绍了一种名为Auto-Encoding Variational Bayes (AEVB)的算法。AEVB算法通过引入随机变分推断和学习算法,解决了在大数据集和不可解后验分布情况下的推断和学习问题。文章的主要贡献有两个:首先,提出了一个可以直接使用标准随机梯度方 阅读全文
posted @ 2024-03-10 20:40 fariver 阅读(281) 评论(0) 推荐(0)
摘要: Learning Transferable Visual Models From Natural Language Supervision link CLIP 全称 Contrastive Language-Image Pre-training 时间:21.02 机构:OpenAI TL;DR 一种 阅读全文
posted @ 2024-03-07 00:34 fariver 阅读(127) 评论(0) 推荐(0)
摘要: VIT: AN IMAGE IS WORTH 16X16 WORDS link TL;DR 首篇使用纯Transformer来做CV任务的文章。 Method 首先将图像拆成多个图片Patch,每个Patch通过LindearProjection变成embedding特征,使用Transformer 阅读全文
posted @ 2024-03-05 23:46 fariver 阅读(107) 评论(0) 推荐(0)
摘要: Transformer ) 名称解释: Self-Attention: 类似于CNN里面的Conv层,是Transformer中重复次数最多的特征提取Layer。 Multi-Head Attention: 相对于Self-Attention,将每个节点外接多个q、k、v head。 Cross A 阅读全文
posted @ 2024-03-04 23:20 fariver 阅读(38) 评论(0) 推荐(0)
上一页 1 ··· 8 9 10 11 12 13 14 15 16 ··· 19 下一页