微信扫一扫打赏支持
上一页 1 ··· 66 67 68 69 70 71 72 73 74 ··· 498 下一页
摘要: KL散度、JS散度、Wasserstein距离 一、总结 一句话总结: ①)、KL散度又称为相对熵,信息散度,信息增益。KL散度是是两个概率分布P和Q 差别的非对称性的度量。 ②)、JS散度度量了两个概率分布的相似度,基于KL散度的变体,解决了KL散度非对称的问题。 ③)、Wessertein距离相 阅读全文
posted @ 2020-08-13 11:56 范仁义 阅读(2539) 评论(0) 推荐(0)
摘要: 200812_深度学习系列 3、神经网络和反向传播算法(没完) 一、总结 一句话总结: 神经网络的实现很简单,原理的实现就是矩阵相乘,就是前向传播和反向传播 1、前向传播和反向传播? 前向传播:就是函数套函数计算y,简单的很 反向传播:就是很简单的链式法则 2、什么是向量化编程? 就是计算用向量来计 阅读全文
posted @ 2020-08-13 10:07 范仁义 阅读(126) 评论(0) 推荐(0)
摘要: 200812_深度学习系列 2、线性单元和梯度下降 一、总结 一句话总结: 线性单元感知器,知识激活函数变了,其它代码都一样 from perceptron import Perceptron #定义激活函数f f = lambda x: x class LinearUnit(Perceptron) 阅读全文
posted @ 2020-08-12 22:16 范仁义 阅读(207) 评论(0) 推荐(0)
摘要: 手把手教你理解和实现生成式对抗神经网络(GAN) 一、总结 一句话总结: GAN的全称是 Generative Adversarial Networks,中文名称是生成对抗网络。原始的GAN是一种无监督学习方法,巧妙的利用“博弈”的思想来学习生成式模型。 1、gan的目标函数? $$\min _ { 阅读全文
posted @ 2020-08-12 20:24 范仁义 阅读(3333) 评论(0) 推荐(0)
摘要: 生成对抗网络(GAN) 一、总结 一句话总结: GAN的全称是 Generative Adversarial Networks,中文名称是生成对抗网络。原始的GAN是一种无监督学习方法,巧妙的利用“博弈”的思想来学习生成式模型。 1、GAN的原理(从博弈方面)? 在训练过程中,生成网路G的目标是尽量 阅读全文
posted @ 2020-08-12 20:06 范仁义 阅读(916) 评论(0) 推荐(0)
摘要: 深度学习之GAN对抗神经网络 一、总结 一句话总结: 判别模型:$$\log ( D _ { 1 } ( x ) ) + \log ( 1 - D _ { 2 } ( G ( z ) ) )$$ 生成模型:$$\log ( D _ { 2 } ( G ( z ) ) )$$ 二、深度学习之GAN对抗 阅读全文
posted @ 2020-08-12 19:57 范仁义 阅读(475) 评论(0) 推荐(0)
摘要: GAN对抗神经网络(原理解析) 一、总结 一句话总结: (一)、GAN的主要灵感来源于博弈论中零和博弈的思想,应用到深度学习神经网络上来说,就是 (二)、**通过生成网络G(Generator)和判别网络D(Discriminator)不断博弈,进而使G学习到数据的分布**, (三)、如果用到图片生 阅读全文
posted @ 2020-08-12 17:52 范仁义 阅读(4218) 评论(0) 推荐(0)
摘要: Wasserstein distance(EM距离) 一、总结 一句话总结: ①、Wasserstein 距离又叫Earth-Mover距离(EM距离),用于衡量两个分布之间的距离, ②、定义:$$W ( P _ { 1 } , P _ { 2 } ) = \inf _ { \gamma \sim 阅读全文
posted @ 2020-08-12 17:06 范仁义 阅读(4160) 评论(0) 推荐(0)
摘要: 浅谈KL散度 一、总结 一句话总结: (a)、相对熵(relative entropy)又称为KL散度(Kullback–Leibler divergence,简称KLD),信息散度(information divergence),信息增益(information gain)。 (b)、KL散度是两 阅读全文
posted @ 2020-08-12 16:55 范仁义 阅读(1089) 评论(0) 推荐(0)
摘要: 深度学习中 Batch Normalization是什么 一、总结 一句话总结: batch normalization嘛,就是“批规范化”咯,即在每次SGD时,通过mini-batch来对相应的activation做规范化操作,使得结果(输出信号各个维度)的均值为0,方差为1. 1、什么时候用ba 阅读全文
posted @ 2020-08-12 16:45 范仁义 阅读(393) 评论(0) 推荐(0)
上一页 1 ··· 66 67 68 69 70 71 72 73 74 ··· 498 下一页