Loading

tensorflow笔记(一)之基础知识

tensorflow笔记(一)之基础知识

版权声明:本文为博主原创文章,转载请指明转载地址

http://www.cnblogs.com/fydeblog/p/7399701.html

前言

这篇notebook将一步步构建一个tensorflow的线性回归的例子,并讲述其中的一些基础知识。我会把notebook文件放在结尾的百度云链接。

首先第一步,要安装tensorflow,这个网上的教程很多,我安装的版本是ubuntu下1.2.1的tensorflow,推荐用pip(一步就好)这里附上一个安装教程的链接https://www.leiphone.com/news/201606/ORlQ7uK3TIW8xVGF.html ,安装ubuntu系统的直接看必不可少的python-pip和python-dev的那部分,这篇博客的博主安装的是0.8版本的,所以你需要改一下版本,由于我的电脑不支持gpu加速,所以安装的是cpu,这两个还是很有区别的,建议有gpu的还是装gpu版本的,后面跑程序快一些,举个例子,我在跑cnn卷积神经网络的手写识别的程序,没有gpu加速,跑了40分钟,有估计会很快,上面链接是cpu版本的,gpu版本应该也差不错,只有自己去安装了。

1. tensorflow的基本结构

我们先从python中导入tensorflow

import tensorflow as tf

这样命名比较简单明了,如果运行这行出现错误,说明你没有安装成功

matrix1 = tf.constant([[3., 3.]])  #1 row by 2 column
matrix2 = tf.constant([[2.],[2.]]) # 2 row by 1 column

这里用tf.constant创建了两个矩阵matrix1和matrix2,想知道如何去使用tf的函数,请点击https://www.tensorflow.org/api_docs/python/这个网址,里面是tf的api文档,可以直接在上面的搜索框内搜任何一个函数,可以看函数功能,参数,返回值等等。
这里的tf.constant函数是创建一个常量,返回值等于函数的输入参数,之所以要用tf.constant,这是因为tensorflow有一个特别的地方,那就是用tensorflow的函数创建或返回一个数据,相当于一个源op,源op相当于tensorflow中最小的单元,每一个数据都是一个源op

创建完前面的两个常量后,我们开始矩阵相乘

product = tf.matmul(matrix1, matrix2)

tf.matmul函数是tensorflow里面的矩阵相乘函数。product也是一个源op,现在我们讲讲图(graph)的概念,tensorflow中图表示计算任务,上面几行代码似乎看不到图的生成过程哈,这是因为tensorflow有一个默认图,它已经能满足大部分需求,所以不需要构建图,目前笔记都会是默认图,多图操作我现在还不会,看以后有没有机会写吧。在这个默认图中,已经有三个源op了,分别是product,matrix1和matrix2,我们可以将三个源op看作默认图中的三个节点,但这三个节点是有关系的,product节点连接这matrix1和matrix2节点,有点像树的分叉,product相当于主干,matrix1和matrix2相当于两个分支。

然后我们要创建一个会话

sess = tf.Session()

tensorflow要求所有的任务必须在会话中运行,上面这个语句就是创建一个会话

然后我们在会话中运行product

sess.run(product)

返回结果1X1的矩阵,数据类型是float32(tensorflow的默认类型)

我们来自顶向下看,最顶的是会话(Session),然后会话中包括了各种任务,也是graph,任务又是由不同的源op组成。我用tensorboard画了图(tensorboard是tensorflow可视化的一个非常好的工具,这个后面会说),如图

2. tensorflow下的回归实例

好了,现在我们开始举一个回归例子来实践一下吧

import tensorflow as tf
import numpy as np

## prepare the original data
x_data = np.random.rand(100).astype(np.float32)
y_data = 0.3*x_data+0.1
##creat parameters
weight = tf.Variable(tf.random_uniform([1],-1.0,1.0))
bias = tf.Variable(tf.zeros([1]))
##get y_prediction
y_prediction = weight*x_data+bias
##compute the loss
loss = tf.reduce_mean(tf.square(y_data-y_prediction))
##creat optimizer
optimizer = tf.train.GradientDescentOptimizer(0.5)
#creat train ,minimize the loss 
train = optimizer.minimize(loss)
#creat init 
init = tf.global_variables_initializer()

##creat a Session 
sess = tf.Session()
##initialize
sess.run(init)
## Loop
for step  in  range(101):
    sess.run(train)
    if step %10==0 :
        print step ,'weight:',sess.run(weight),'bias:',sess.run(bias)

第一项是准备数据,使用了numpy的函数,随机生成100个float32型的数据,并生成相应的观测值y
第二项是生成训练参数,权重weight和偏差bias,这个是tf.Variable函数生成了,这个函数非常常用,变量都是用它来生成的
第三项是得到预测值,通过上面的参数与x_data运算得到
第四项计算损失,观测值与预测值相差平方取平均
第五项生成一个优化器,使用的是梯度下降优化器
第六项则是用优化器去最小化损失
第七项是生成初始化op,相当于所有变量初始化的开关,在sess里运行则所有变量进行初始化
第八项是生成会话session
第九项是初始化所有变量,只有用tf.Variable函数,都要用这个sess.run(init)初始化,不然参数没有进行初始化,无法迭代更新
第十项是循环训练,执行train,它会最小化损失,在这个过程中,参数也在不停地更新,我们用print打印出了步数和参数值

这个说一句,使用tf函数生成的源op,必须在会话中运行,上面一小节我们讲了自顶向下看,这里的顶是train,最下面是参数,sess.run(train)会带动它各个分支和分支下面的分支运行

上述程序输出结果如下

为了方便理解,我用tensorboard画了流动图,如图

结尾

基础知识到一段落了,希望这篇文章能对你学习tensorflow有帮助,由于博主能力有限,若有错误之处,还请不吝指教!谢谢!

 

百度云链接:https://pan.baidu.com/s/1eBDs0ey4K9-3rVnsJOorag

 

 

 

 

 

posted @ 2017-08-20 13:17  FANG_YANG  阅读(4188)  评论(0编辑  收藏  举报