上一页 1 ··· 8 9 10 11 12 13 14 15 下一页
摘要: 参考&相关资料: https://www.cnblogs.com/sss4/p/6807515.html --简单 https://www.cnblogs.com/guobaoyuan/p/6809447.html --更详细 https://gist.github.com/kevinkindom/ 阅读全文
posted @ 2019-02-22 15:16 戒骄戒躁-沉淀积蓄 阅读(721) 评论(0) 推荐(1)
摘要: https://www.tensorflow.org/api_docs/python/tf/contrib/layers/fully_connected fully_connected: 1、先根据权重得到输出 2、对输出normalizer (BN..) 3、对输出activate(relu, . 阅读全文
posted @ 2019-02-21 15:44 戒骄戒躁-沉淀积蓄 阅读(1582) 评论(0) 推荐(0)
摘要: slim.flatten(inputs,outputs_collections=None,scope=None) (注:import tensorflow.contrib.slim as slim) 将输入扁平化但保留batch_size,假设第一维是batch。 Args: inputs: a t 阅读全文
posted @ 2019-02-21 15:03 戒骄戒躁-沉淀积蓄 阅读(5823) 评论(0) 推荐(0)
摘要: <!-- flowchart 箭头图标 勿删 --> 摘要:本文主要对tf的一些常用概念与方法进行描述。 tf函数 TensorFlow 将图形定义转换成分布式执行的操作, 以充分利用可用的计算资源(如 CPU 或 GPU。一般你不需要显式指定使用 CPU 还是 GPU, TensorFlow 能自 阅读全文
posted @ 2019-02-15 21:52 戒骄戒躁-沉淀积蓄 阅读(753) 评论(0) 推荐(0)
摘要: Python三种文件行数读取的方法: #文件比较小 count = len(open(r"d:\lines_test.txt",'rU').readlines()) print count #文件比较大 count = -1 for count,line in enumerate(open(r"d: 阅读全文
posted @ 2019-02-15 21:32 戒骄戒躁-沉淀积蓄 阅读(23846) 评论(0) 推荐(0)
摘要: 1. 最基本的读文件方法: # File: readline-example-1.py file = open("sample.txt") while 1: line = file.readline() if not line: break pass # do something 一行一行得从文件读 阅读全文
posted @ 2019-02-15 21:29 戒骄戒躁-沉淀积蓄 阅读(378) 评论(0) 推荐(0)
摘要: L1 L2 Regularization 表示方式: $L_2\text{ regularization term} = ||\boldsymbol w||_2^2 = {w_1^2 + w_2^2 + ... + w_n^2}$ 执行 L2 正则化对模型具有以下影响 使权重值接近于 0(但并非正好 阅读全文
posted @ 2019-02-14 20:35 戒骄戒躁-沉淀积蓄 阅读(178) 评论(0) 推荐(0)
摘要: 损失函数添加L2 regularization 对于AlphaGo 的一个神经网络预测两个值的情况,在原有的损失函数上,又要添加正则项来修正 AlphaGo的损失函数 使用了MSE和交叉验证,没有采用softmax激活函数,只有value网络使用了tanh激活 阅读全文
posted @ 2019-02-14 18:16 戒骄戒躁-沉淀积蓄 阅读(698) 评论(0) 推荐(0)
摘要: 范数(norm)是数学中的一种基本概念。在泛函分析中,它定义在赋范线性空间中,并满足一定的条件,即①非负性;②齐次性;③三角不等式。 它常常被用来度量某个向量空间(或矩阵)中的每个向量的长度或大小。 空间范数 常用范数 1-范数:║x║1=│x1│+│x2│+…+│xn│ 2-范数:║x║2=(│x 阅读全文
posted @ 2019-02-14 16:37 戒骄戒躁-沉淀积蓄 阅读(561) 评论(0) 推荐(0)
摘要: tf.nn.softmax_cross_entropy_with_logits(logits, labels, name=None) 第一个参数logits:就是神经网络最后一层的输出 第二个参数labels:实际的标签 具体的执行流程大概分为两步: 第一步是先对网络最后一层的输出做一个softma 阅读全文
posted @ 2019-02-14 00:32 戒骄戒躁-沉淀积蓄 阅读(492) 评论(0) 推荐(0)
上一页 1 ··· 8 9 10 11 12 13 14 15 下一页