摘要: 下面是分类的主函数入口 下面是TextCNN模型的图构建过程: 下面是读取文本文件的过程: 下面是训练过程中的log Loading data... Vocabulary Size: 18758 Train/Dev split: 9596/1066 2018-02-17 22:22:49.27875 阅读全文
posted @ 2018-02-17 22:27 香港胖仔 阅读(4125) 评论(0) 推荐(0) 编辑
摘要: 下面是上面代码的输出结果: 阅读全文
posted @ 2018-02-17 11:29 香港胖仔 阅读(394) 评论(0) 推荐(0) 编辑
摘要: # SavedModelBuilder 类提供了保存多个MetaGraphDef的功能 # MetaGraph是一个数据流图,加上它的关联变量,资产和标签 # 一个MetaGraphDef是一个协议缓冲表示区 # 一个signature是计算图的输入和输出表示 # 如果assets需要被保存或者写入到磁盘上,当第一个MetaGraphDef被加载的时候 # asset就可以被提供 # 如果多个M... 阅读全文
posted @ 2018-02-17 11:27 香港胖仔 阅读(1040) 评论(0) 推荐(0) 编辑
摘要: 下面是输出的结果: 阅读全文
posted @ 2018-02-17 11:26 香港胖仔 阅读(7581) 评论(0) 推荐(0) 编辑
摘要: 下面是输出的结果: 阅读全文
posted @ 2018-02-17 11:25 香港胖仔 阅读(298) 评论(0) 推荐(0) 编辑
摘要: 结果如下所示: 阅读全文
posted @ 2018-02-17 11:24 香港胖仔 阅读(357) 评论(0) 推荐(0) 编辑
摘要: 保存的结果如下: 阅读全文
posted @ 2018-02-17 11:22 香港胖仔 阅读(212) 评论(0) 推荐(0) 编辑
摘要: # Programming with multiple graphs # 当训练一个模型的时候一个常用的方式就是使用一个图来训练你的模型 # 另一个图来评价和计算训练的效果 # 在许多情况下前向计算和训练是不同的 # 例如像Dropout和batch正则化使用不同的操作在不同的Case条件下 # 更进一步地说 通过使用默认的工具类,如tf.train.Saver使用tf.Variable的命名空... 阅读全文
posted @ 2018-02-17 11:21 香港胖仔 阅读(1569) 评论(0) 推荐(0) 编辑
摘要: import tensorflow as tf # Build your graph x = tf.constant([[37.0, -23.0], [1.0, 4.0]], name="inputs") w = tf.Variable(tf.random_uniform([2, 2]), name="weights") _y = tf.matmul(x, w, name="predict_y"... 阅读全文
posted @ 2018-02-17 11:19 香港胖仔 阅读(251) 评论(0) 推荐(0) 编辑
摘要: 下面是输出的结果: 阅读全文
posted @ 2018-02-17 11:17 香港胖仔 阅读(1463) 评论(0) 推荐(1) 编辑
摘要: 下面是输出的结果: 阅读全文
posted @ 2018-02-17 11:13 香港胖仔 阅读(208) 评论(0) 推荐(0) 编辑
摘要: # tf.Session.run 方法是一个执行tf.Operation或者计算tf.Tensor的一个主要的机制 # 你可以传递一个或者多个tf.Operation或者tf.Tensor对象来给tf.Session.run # TensorFlow会执行operation操作来计算结果 # tf.Session.run需要你来指定一系列的获取,这些决定了返回值 # 这些获取可以是 tf.Ope... 阅读全文
posted @ 2018-02-17 11:10 香港胖仔 阅读(1048) 评论(0) 推荐(0) 编辑
摘要: # tf.device给你了很多可伸缩性在TensorFlow的计算图中选择放置你的单独的操作 # 在许多的情况下,有很多启发可以工作的很好 # 例如tf.train.replica_device_setter API可以和tf.device一起使用,在进行数据分布式并行性话训练的时候 # 列如下面的代码块显示了tf.train.replica_device_setter 如何在tf.Vari... 阅读全文
posted @ 2018-02-17 11:08 香港胖仔 阅读(300) 评论(0) 推荐(0) 编辑
摘要: # TensorFlow使用tf.Session类来表示客户端程序之间的链接 # 虽然一个在其他语言中相似的接口也是可以使用的,列如C++ runtime # 一个tf.Session对象提供了访问本地机器的方法,和使用TensorFlow运行时远程链接到设备的方法 # 它也对你的计算图信息进行缓存,因此你可以高效地运行相同的计算很多遍 # import tensorflow as tf # C... 阅读全文
posted @ 2018-02-17 11:08 香港胖仔 阅读(174) 评论(0) 推荐(0) 编辑
摘要: # 如果你在分布式环境中部署TensorFlow # 你或许需要指定job name和task ID # 来将变量放置在参数服务器上 # 将操作放在worker job import tensorflow as tf with tf.device("/job:ps/task:0"): weights_1 = tf.Variable(tf.truncated_normal([784, 1... 阅读全文
posted @ 2018-02-17 11:06 香港胖仔 阅读(185) 评论(0) 推荐(0) 编辑
摘要: # 如果你想使你的程序运行在不同的设备上 # tf.device函数提供了一个方便的方法来实现 # 所有在特定上下文中的操作都放置在相同的设备上面 # A device specification has the following form: # /job:/task:/device:: # 是一个字母数字字符串,并且不以数字开头 # GPU or CPU # 是... 阅读全文
posted @ 2018-02-17 11:04 香港胖仔 阅读(200) 评论(0) 推荐(0) 编辑
摘要: 下面是上面代码的输出结果: 阅读全文
posted @ 2018-02-17 11:03 香港胖仔 阅读(4139) 评论(0) 推荐(0) 编辑
摘要: #创建一个计算流图 #大多数tensorflow程序开始于dataflow graph 的构造函数 #在这个命令中你执行了tensorflow api的函数 #创建了新的操作tf.Operation (node) #和tf.Tensor (edge) 对象,并且将它们添加到了tf.Graph的实例中 #TensorFlow提供了默认的数据流图,是一个非显式声明的参数 #tf.constant(4... 阅读全文
posted @ 2018-02-17 11:01 香港胖仔 阅读(208) 评论(0) 推荐(0) 编辑
摘要: import tensorflow as tf # 在不同的变量域中调用conv_relu,并且声明我们想创建新的变量 def my_image_filter(input_images): with tf.variable_scope("conv1"): # Variables created here will be named "conv1/weights" ,"co... 阅读全文
posted @ 2018-02-17 11:00 香港胖仔 阅读(121) 评论(0) 推荐(0) 编辑
摘要: #Dataflow是并行化编程常用的方式 #当使用TensorFlow执行你的程序的时候有以下几个优点 #1、并行化 。通过声明的边来代表操作之间的依赖 # 对系统来说确定可以并行化的操作是比较容易的 #2、分布式执行: # 通过使用声明的边来代表操作之间值的传递 # 这样使得tensorflow在跨多平台之间执行你的程序, # TensorFlow在不同的设备之... 阅读全文
posted @ 2018-02-17 11:00 香港胖仔 阅读(456) 评论(0) 推荐(0) 编辑