tf中的图tf.graph和会话tf.Session

********************原文 https://www.cnblogs.com/ywheunji/p/11390219.html   *******************

深度学习(神经网络)具有反馈机制,具有一套对输出所作的评价函数(损失函数),损失函数在对神经网络做出评价后,会通过某种方式(下降法、动量法、自动法)更新网络的组成参数,以期望系统得到更好的输出数据。

在tensorflow网络中,用计算图来构建网络,用会话来具体执行网络。

图tf.graph   计算图,主要用于构建网络,本身不进行任何实际的计算,计算图的设计启发式高等数学里面的链式求导法则的图

会话 tf.session   会话主要用于执行网络,所有关于神经网络的计算都在这里进行计算,它执行的依据是计算图或者计算图的一部分,同时,会话也会负责分配计算资源和变量存放,以及维护执行过程中的变量。

graph=tf.Graph()

with graph.as_default():

    img=tf.constant(1.,shape=[1,,3,4,5])

执行完上述语句之后,计算图中生成一个node,该node结点由name op  input  attrs组成,即名称  操作  输入   一系列的属性等组成。计算图就是这样一个个的node组成的,对于tf.constant()函数只会生成一个node

 

会话 

在上述代码中,已经使用会话tf.session()来执行计算图了,一个session()中包含了operation被执行,以及tensor被evaluated的环境。

tf.Session().run()函数的定义

run(fetches,feed_dict=None,option=None,run_metadata=None)

run()函数每执行一步,都会执行与fetches有关的图中的所有节点的计算,已完成fetches中的任务,其中,feed_dict提供了部分数据输入的功能,一般来说与tf.placeholder搭配使用。

其中feed_dict为字典格式,给模型输入其计算过程中所需要的值。

 

 

 

**********************原文   https://blog.csdn.net/nanhuaibeian/article/details/101862790   **************************

在tf中,系统会自动维护一个模型的计算图,通过tf.get_default_graph()函数可以获取当前默认的计算图。

通过a.graph可以查看张量所属的计算图。

 

posted @ 2021-07-27 00:55  大大的海棠湾  阅读(218)  评论(0)    收藏  举报