摘要:
DENOISING DIFFUSION IMPLICIT MODELS (DDIM) 从DDPM中我们知道,其扩散过程(前向过程、或加噪过程)被定义为一个马尔可夫过程,其去噪过程(也有叫逆向过程)也是一个马尔可夫过程。对马尔可夫假设的依赖,导致重建每一步都需要依赖上一步的状态,所以推理需要较多的步长 阅读全文
摘要:
Denoising Diffusion Probabilistic Model(DDPM)原理 1. 生成模型对比 记 真实图片为 \(x_0\),噪声图片为 \(x_t\),噪声变量 \(z\sim \mathcal{N}(\mu,\sigma^2)\),噪声变量 \(\varepsilon \s 阅读全文
摘要:
预备知识 范数 范数是一种函数,用来度量向量的大小1。在机器学习、信号处理等领域中,范数常常被用作正则化方法,通过对参数向量的范数进行约束,达到控制模型复杂度、防止过拟合等目的。常见的范数有0范数、1范数、2范数、无穷范数 等,其中0范数表示向量中非零元素的个数,1范数表示为绝对值之和,2范数则指模 阅读全文
摘要:
变分贝叶斯推断 变分原理 《动态最优化基础》中关于 泛函 和 变分 的推导。 Euler-Lagrange方程: \[F_y-\dfrac{d}{dt}F_{y^\prime}=0 \]或者 \[\dfrac{\partial F}{\partial y}-\dfrac{d}{dx}\dfrac{\ 阅读全文
摘要:
简介 Transformer是一种深度学习模型,它在自然语言处理(NLP)领域中非常流行和有效。它最初由Vaswani等人在2017年的论文《Attention is All You Need》中提出。Transformer模型的核心思想是使用自注意力(Self-Attention)机制来处理序列数 阅读全文
摘要:
Pytorch 实现 GAN 网络 原理 GAN的基本原理其实非常简单,假设我们有两个网络,G(Generator)和D(Discriminator)。它们的功能分别是: G 是一个生成网络,它接收一个随机的噪声z,通过这个噪声生成伪造数据,记做 G(z)。 D 是一个判别网络,判别数据是不是“真实 阅读全文
摘要:
基于加权平滑过渡的无缝拼接 背景 在做照片数字人视频生成的时候,为了达到快速响应实时播放的需求,即视频的生成速度 必须小于 音频的播放速度。 因此,我们截取了一部分较小的可动区域进行推理生成,然后把生成的图像贴回到原区域。 通常情况下,推理生成图像的 清晰度和色彩 对比 原图 有些许差异,这样导致贴 阅读全文
摘要:
WebAssembly 开发环境搭建 简介 WebAssembly 是一种新的编码方式,可以在现代的网络浏览器中运行 - 它是一种低级的类汇编语言,具有紧凑的二进制格式,可以接近原生的性能运行,并为诸如C/C++等语言提供一个编译目标,以便它们可以在 Web 上运行。它也被设计为可以与 JavaSc 阅读全文
摘要:
深度学习 - Torch-TensorRT 推理加速 Torch-TensorRT 作为 TorchScript 的扩展。 它优化并执行兼容的子图,让 PyTorch 执行剩余的图。 PyTorch 全面而灵活的功能集与 Torch-TensorRT 一起使用,解析模型并将优化应用于图的 Tenso 阅读全文
摘要:
Nodejs C++插件(N-API) 0. 环境搭建 1. JS中调用C++方法 1.1 JS中调用源文件的C++方法 1.2 JS中调用动态库的C++方法 2. C++中调用JS方法 2.1. C++单线程调用JS方法 2.2. C++多线程调用JS方法 N-API 作为Nodejs项目的一部分 阅读全文