博客园  :: 首页  :: 新随笔  :: 管理

随笔分类 -  tensorflow

1

摘要:首先看一张图,这是来自炼数成金的讲师Ben关于深度学习框架tensorflow课程中的一张图,textcnn(paper),一般理解了这张图就基本理解了cnn文本分类的基本方法; 简单总结一下: 首先我对这些矩阵数据从0-17做了标号,方便后续的说明; 其中0为输入数据“I like this mo 阅读全文

posted @ 2020-04-07 00:09 wsg_blog 阅读(5372) 评论(0) 推荐(0)

摘要:此代码为Google tensorflow例子代码,可在github找到 (word2vec_basic.py) 关于word2vec的介绍,之前也整理了一篇文章,感兴趣的朋友可以去看下,示例代码是skip-gram的训练方式,这里简单概括一下训练的数据怎么来的:比如,有这么一句话“喜欢写博客”,经 阅读全文

posted @ 2020-04-06 00:03 wsg_blog 阅读(4558) 评论(0) 推荐(0)

摘要:上一篇博客介绍了怎么获取inception v3模型数据,现在我们用下载好的模型进行简单的图片分类实验。 import tensorflow as tf import os import numpy as np import re from PIL import Image import matpl 阅读全文

posted @ 2020-04-04 23:22 wsg_blog 阅读(1906) 评论(0) 推荐(0)

摘要:import tensorflow as tf import os import tarfile import requests #模型下载地址 inception_pretrain_model_url='http://download.tensorflow.org/models/image/ima 阅读全文

posted @ 2020-04-04 18:06 wsg_blog 阅读(1526) 评论(7) 推荐(0)

摘要:我们先定义一个简单的神经网络,用来训练模型,然后将模型保存下来,最后加载保存下来的模型进行检测,查看输出结果。 #模型训练和保存 import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data #载 阅读全文

posted @ 2020-03-22 16:34 wsg_blog 阅读(1098) 评论(0) 推荐(0)

摘要:import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data #载入数据集 mnist = input_data.read_data_sets("MNIST_data/",one_hot=True 阅读全文

posted @ 2020-03-22 00:29 wsg_blog 阅读(2203) 评论(0) 推荐(0)

摘要:通俗理解rnn和lstm区别 RNN 循环神经网络主要适合处理有连续特征的数据(序列数据),比如语音、文本等 对于自然语言处理来讲,通常我们会首先对一段话进行分词,将分好后的词$X_0,X_1,X_2...X_t$依次输入其中,前面的每个词经过rnn中的A(类似于bp神经网络结构)后,都会对A产生影 阅读全文

posted @ 2020-03-15 17:39 wsg_blog 阅读(1297) 评论(0) 推荐(0)

摘要:卷积和池化在深度学习中的作用是对图像和文本信息提取特征的常用方式,特别是在分类领域 卷积:通过不同的卷积核与图像或文本数据矩阵 进行矩阵相乘,得到不同特征的若干组训练特征数据 池化:池化通常有两种最大池化(max-pooling)和平均池化,最大池化就是在一块矩阵区域(比如2X2,4个像素点),取最 阅读全文

posted @ 2020-03-15 01:51 wsg_blog 阅读(1522) 评论(4) 推荐(0)

摘要:tensorflow中的优化器有很多种,也有很多类似的博客,当然最常用的是AdamOptimizer,我们这里就通过adam和衰减的学习率加上之前学的多层结构,使手写数字模型准确率达到98%以上 import tensorflow as tf from tensorflow.examples.tut 阅读全文

posted @ 2020-02-24 22:35 wsg_blog 阅读(1086) 评论(0) 推荐(0)

摘要:减小过拟合的几种方法: 我们建一个三层的网络,并给他加上dropout 测试一下训练20次的准确率 import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data #载入数据集 mnist=inpu 阅读全文

posted @ 2020-02-23 23:56 wsg_blog 阅读(906) 评论(0) 推荐(0)

摘要:二次代价函数 $C = \frac{1} {2n} \sum_{x_1,...x_n} \|y(x)-a^L(x) \|^2$ 其中,C表示代价函数,x表示样本,y表示实际值,a表示输出值,n表示样本的总数;整个的意思就是把n个y-a的平方累加起来,再除以2n求一下均值。 为简单起见,先看下 一个样 阅读全文

posted @ 2020-02-23 00:53 wsg_blog 阅读(4079) 评论(0) 推荐(0)

摘要:simple版本nn模型 训练手写数字处理 MNIST_data数据 百度网盘链接:https://pan.baidu.com/s/19lhmrts-vz0-w5wv2A97gg 提取码:cgnx import tensorflow as tf from tensorflow.examples.tu 阅读全文

posted @ 2020-02-15 01:16 wsg_blog 阅读(1379) 评论(0) 推荐(0)

摘要:这个程序为简单的三层结构组成:输入层、中间层、输出层 运行环境为 ubuntu 要理清各层间变量个数 import numpy as np import matplotlib.pyplot as plt import tensorflow as tf #使用numpy生成200个随机点 x_data 阅读全文

posted @ 2020-02-14 00:51 wsg_blog 阅读(952) 评论(0) 推荐(0)

摘要:给不明白深度学习能干什么的同学,感受下深度学习的power import tensorflow as tf import numpy as np #使用numpy生成100个随机点 x_data=np.random.rand(100) y_data=x_data*0.1+0.2 #这里我们设定已知直 阅读全文

posted @ 2020-02-13 02:27 wsg_blog 阅读(833) 评论(0) 推荐(0)

摘要:import tensorflow as tf #Fetch概念 在session中同时运行多个op input1=tf.constant(3.0) #constant()是常量不用进行init初始化 input2=tf.constant(2.0) input3=tf.constant(5.0) a 阅读全文

posted @ 2020-02-13 01:47 wsg_blog 阅读(763) 评论(0) 推荐(0)

摘要:import tensorflow as tf x=tf.Variable([1,2]) a=tf.constant([3,3]) sub=tf.subtract(x,a) #增加一个减法op add=tf.add(x,sub) #增加一个加法op #注意变量再使用之前要再sess中做初始化,但是下 阅读全文

posted @ 2020-02-13 00:58 wsg_blog 阅读(902) 评论(0) 推荐(0)

摘要:由于tensorflow版本迭代较快且不同版本的接口会有差距,我这里使用的是1.14.0的版本 安装指定版本的方法:pip install tensorflow==1.14.0 如果你之前安装高版本(比如2.1.0),它会自动把高版本卸载掉 import tensorflow as tf m1=tf 阅读全文

posted @ 2020-02-12 23:55 wsg_blog 阅读(1170) 评论(0) 推荐(0)

摘要:简介: 目前工作为nlp相关的分类及数据治理,之前也使用tensorflow写过一些简单分类的代码,感受到深度学习确实用处较大,想更加系统和全面的学习下tensorflow的相关知识,于是我默默的打开了b站;发现了一门比较好的视频课程: 深度学习框架Tensorflow学习与应用 ,看样子像是炼数成 阅读全文

posted @ 2020-02-11 12:12 wsg_blog 阅读(5338) 评论(2) 推荐(1)

摘要:首先说明使用的工具和环境:python3.6.8 tensorflow1.14.0 centos7.0(最好用Ubuntu) 关于环境的搭建只做简单说明,我这边是使用pip搭建了python的虚拟环境(virtualenv),并在虚拟环境中安装tensorflow。详细步骤可以查看tensorflo 阅读全文

posted @ 2020-01-07 11:10 wsg_blog 阅读(3629) 评论(24) 推荐(0)

摘要:在许多自然语言处理任务中,许多单词表达是由他们的tf-idf分数决定的。即使这些分数告诉我们一个单词在一个文本中的相对重要性,但是他们并没有告诉我们单词的语义。Word2Vec是一类神经网络模型——在给定无标签的语料库的情况下,为语料库的单词产生一个能表达语义的向量。 word2vec是Google 阅读全文

posted @ 2019-10-09 20:01 wsg_blog 阅读(3166) 评论(2) 推荐(1)

1