上一页 1 ··· 22 23 24 25 26 27 28 29 30 ··· 49 下一页

2018年12月12日

自编码器----Autoencoder

摘要: 一、自编码器:降维【无监督学习】 PCA简介:【线性】原矩阵乘以过渡矩阵W得到新的矩阵,原矩阵和新矩阵是同样的东西,只是通过W换基。 自编码: 自动编码器是一种无监督的神经网络模型,它可以学习到输入数据的隐含特征,这称为编码(coding),同时用学习到的新特征可以重构出原始输入数据,称之为解码(d 阅读全文

posted @ 2018-12-12 21:42 吱吱了了 阅读(3291) 评论(0) 推荐(0)

PCA----降维

摘要: 引言: 特征值分解:矩阵的作用就是线性变换(如旋转,伸缩,平移等),在一个空间当中,矩阵左乘向量就是将向量线性变换成想要的效果,那么矩阵的特征值和特征向量是什么呢? 特征值、特征向量:在线性代数的定义当中,特征值和特征向量的定义是这样的,AX=rX ,则称r为A的特征值,X称为A的属于特征值k的特征 阅读全文

posted @ 2018-12-12 18:30 吱吱了了 阅读(809) 评论(0) 推荐(0)

2018年12月6日

TensorFlow的序列模型代码解释(RNN、LSTM)---笔记(16)

摘要: 1、学习单步的RNN:RNNCell、BasicRNNCell、BasicLSTMCell、LSTMCell、GRUCell (1)RNNCell 如果要学习TensorFlow中的RNN,第一站应该就是去了解“RNNCell”,它是TensorFlow中实现RNN的基本单元,每个RNNCell都有 阅读全文

posted @ 2018-12-06 20:46 吱吱了了 阅读(3525) 评论(0) 推荐(0)

2018年12月5日

TensorFlow技术解析与实战学习笔记(15)-----MNIST识别(LSTM)

摘要: 一、任务:采用基本的LSTM识别MNIST图片,将其分类成10个数字。 为了使用RNN来分类图片,将每张图片的行看成一个像素序列,因为MNIST图片的大小是28*28像素,所以我们把每一个图像样本看成一行行的序列。因此,共有(28个元素的序列)×(28行),然后每一步输入的序列长度是28,输入的步数 阅读全文

posted @ 2018-12-05 20:46 吱吱了了 阅读(956) 评论(0) 推荐(0)

anaconda安装的TensorFlow版本没有model这个模块

摘要: 一、采用git bash来安装,确认已经安装了git 二、手动找到TensorFlow的模块文件夹地址,若不知道,输入以下两行代码: import tensorflow as tf tf.__path__ 输出的地址为TensorFlow模块所在地址 三、在此地址右键:git bash here 四 阅读全文

posted @ 2018-12-05 19:25 吱吱了了 阅读(2387) 评论(0) 推荐(0)

算法67-----环绕字符串中唯一的子字符串【动态规划】

摘要: 一、题目: 把字符串 s 看作是“abcdefghijklmnopqrstuvwxyz”的无限环绕字符串,所以 s 看起来是这样的:"...zabcdefghijklmnopqrstuvwxyzabcdefghijklmnopqrstuvwxyzabcd....". 现在我们有了另一个字符串 p 。 阅读全文

posted @ 2018-12-05 12:49 吱吱了了 阅读(665) 评论(0) 推荐(0)

2018年12月4日

序列模型(5)-----双向神经网络(BRNN)和深层循环神经网络(Deep RNN)

摘要: 一、双向循环神经网络BRNN 采用BRNN原因: 双向RNN,即可以从过去的时间点获取记忆,又可以从未来的时间点获取信息。为什么要获取未来的信息呢? 判断下面句子中Teddy是否是人名,如果只从前面两个词是无法得知Teddy是否是人名,如果能有后面的信息就很好判断了,这就需要用的双向循环神经网络。 阅读全文

posted @ 2018-12-04 20:14 吱吱了了 阅读(8295) 评论(0) 推荐(0)

序列模型(4)----门控循环单元(GRU)

摘要: 一、GRU 其中, rt表示重置门,zt表示更新门。 重置门决定是否将之前的状态忘记。(作用相当于合并了 LSTM 中的遗忘门和传入门) 当rt趋于0的时候,前一个时刻的状态信息ht−1会被忘掉,隐藏状态h^t会被重置为当前输入的信息。 更新门决定是否要将隐藏状态更新为新的状态h^t(作用相当于 L 阅读全文

posted @ 2018-12-04 19:28 吱吱了了 阅读(1514) 评论(0) 推荐(0)

序列模型(3)---LSTM(长短时记忆)

摘要: 摘自https://www.cnblogs.com/pinard/p/6519110.html 一、RNN回顾 略去上面三层,即o,L,y,则RNN的模型可以简化成如下图的形式: 二、LSTM模型结构: 整体模型: 由于RNN梯度消失的问题,大牛们对于序列索引位置t的隐藏结构做了改进,可以说通过一些 阅读全文

posted @ 2018-12-04 19:10 吱吱了了 阅读(2469) 评论(0) 推荐(0)

序列模型(2)-----循环神经网络RNN

摘要: 一、RNN的作用和粗略介绍: RNN可解决的问题: 训练样本输入是连续的序列,且序列的长短不一,比如基于时间的序列:一段段连续的语音,一段段连续的手写文字。这些序列比较长,且长度不一,比较难直接的拆分成一个个独立的样本来通过DNN/CNN进行训练。 T个时间步: 我们先来看单个RNN cell: 简 阅读全文

posted @ 2018-12-04 16:23 吱吱了了 阅读(646) 评论(0) 推荐(0)

上一页 1 ··· 22 23 24 25 26 27 28 29 30 ··· 49 下一页

导航