程序项目代做,有需求私信(vue、React、Java、爬虫、电路板设计、嵌入式linux等)
摘要: 一 条件变分自编码(CVAE) 变分自编码存在一个问题,虽然可以生成一个样本,但是只能输出与输入图片相同类别的样本。虽然也可以随机从符合模型生成的高斯分布中取数据来还原成样本,但是这样的话饿哦们并不知道生成的样本属于哪个类别。条件变分编码则可以解决这个问题,让网络按指定的类别生成样本。 在变分自编码 阅读全文
posted @ 2018-06-01 22:10 大奥特曼打小怪兽 阅读(2114) 评论(0) 推荐(0) 编辑
摘要: 一 变分自编码(Variational Auto-Encoder) 变分自编码不再是学习样本的个体,而是学习样本的规律,这样训练出来的自编码不单具有重构样本的功能,还具有仿照样本的功能。 变分自编码,其实就是在编码过程中改变了样本的分布("变分"可以理解为改变分布)。前面所说的"学习样本的规律",具 阅读全文
posted @ 2018-06-01 20:48 大奥特曼打小怪兽 阅读(1997) 评论(2) 推荐(2) 编辑
摘要: 上一节我们讲到自编码可以用于进行数据降维、数据压缩、对文字或图像提取主题并用于信息检索等。 根据所解决的问题不同 ,自编码可以有许多种不同形式的变形,例如: 去噪自编码器(DAE)、变分自编码器 (VAE)、收缩自编码器(CAE)和稀疏自编码器等 。下面我们先从去噪自编码讲起。 一 去噪自编码 要想 阅读全文
posted @ 2018-05-30 20:22 大奥特曼打小怪兽 阅读(4407) 评论(19) 推荐(0) 编辑
摘要: urilib是python的标准库,当我们使用Python爬取网页数据时,往往用的是urllib模块,通过调用urllib模块的urlopen(url)方法返回网页对象,并使用read()方法获得url的html内容,然后使用BeautifulSoup抓取某个标签内容,结合正则表达式过滤。但是,用u 阅读全文
posted @ 2018-05-27 15:26 大奥特曼打小怪兽 阅读(6390) 评论(2) 推荐(0) 编辑
摘要: 人们平时看一幅图片时,并不是像计算机那样逐个像素去读,一般是扫一眼物体,大致能得到需要的信息,如形状、颜色和特征等,那么怎么让机器也具有这项能力呢?这里就介绍一下自编码网络。 自编码网络是非监督学习领域中的一种,可以自动从无标注的数据中学习特征,是一种以重构输入信息为目标的神经网络,它可以给出比原始 阅读全文
posted @ 2018-05-23 18:39 大奥特曼打小怪兽 阅读(10457) 评论(0) 推荐(0) 编辑
摘要: "受限波尔兹曼"这名字听起来就霸气,算法如其名,也挺难的。之所以难,是因为我们大部分人都没学过概率图模型,其实RBM是条件随机场的变体,所以如果学习这个算法,建议先把CRF给熟悉了,那么学起来就会轻松很多。受限玻尔兹曼机是由Geoff Hinton发明,是一种用于降维、分类、回归、协同过滤、特征学习 阅读全文
posted @ 2018-05-19 17:10 大奥特曼打小怪兽 阅读(5745) 评论(3) 推荐(1) 编辑
摘要: 一 初始化RNN 上一节中介绍了 通过cell类构建RNN的函数,其中有一个参数initial_state,即cell初始状态参数,TensorFlow中封装了对其初始化的方法。 1.初始化为0 对于正向或反向,第一个cell传入时没有之前的序列输出值,所以需要对其进行初始化。一般来讲,不用刻意取指 阅读全文
posted @ 2018-05-17 21:43 大奥特曼打小怪兽 阅读(3761) 评论(0) 推荐(1) 编辑
摘要: 本节主要介绍在TensorFlow中实现LSTM以及GRU网络。 一 LSTM网络 Long Short Term 网络—— 一般就叫做 LSTM ——是一种 RNN 特殊的类型,可以学习长期依赖信息。LSTM 由 Hochreiter & Schmidhuber (1997) 提出,并在近期被 A 阅读全文
posted @ 2018-05-12 23:29 大奥特曼打小怪兽 阅读(35879) 评论(1) 推荐(4) 编辑
摘要: 这一节使用TensorFlow中的函数搭建一个简单的RNN网络,使用一串随机的模拟数据作为原始信号,让RNN网络来拟合其对应的回声信号。 样本数据为一串随机的由0,1组成的数字,将其当成发射出去的一串信号。当碰到阻挡被反弹回来时,会收到原始信号的回声。 如果步长为3,那么输入和输出的序列如下图所示: 阅读全文
posted @ 2018-05-08 21:34 大奥特曼打小怪兽 阅读(1672) 评论(0) 推荐(0) 编辑
摘要: 退位减法具有RNN的特性,即输入的两个数相减时,一旦发生退位运算,需要将中间状态保存起来,当高位的数传入时将退位标志一并传入参与计算。 我们在做减法运算时候,把减数和被减数转换为二进制然后进行运算。我们定义一个RNN网络,输入节点数为2个,依次传入减数和被减数的二进制序列值,隐藏层节点数为16个,由 阅读全文
posted @ 2018-05-07 20:16 大奥特曼打小怪兽 阅读(1464) 评论(0) 推荐(0) 编辑
如果有任何技术小问题,欢迎大家交流沟通,共同进步