会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
细雨微光
代码,让生活变得更加美好
博客园
首页
新随笔
联系
订阅
管理
上一页
1
2
3
4
5
6
7
8
9
···
42
下一页
2018年9月17日
python(61):str 和 bytes 转换
摘要: str 和 bytes 转换
阅读全文
posted @ 2018-09-17 16:46 细雨微光
阅读(323)
评论(0)
推荐(0)
2018年9月5日
tensorflow 笔记12:函数区别:placeholder,variable,get_variable,参数共享
摘要: 一、函数意义: 1、tf.Variable() 变量 用于生成一个初始值为initial-value的变量。必须指定初始化值 2、tf.get_variable() 共享变量 原函数: 获取已存在的变量(要求不仅名字,而且初始化方法等各个参数都一样),如果不存在,就新建一个。 可以用各种初始化方法,
阅读全文
posted @ 2018-09-05 20:37 细雨微光
阅读(3247)
评论(0)
推荐(0)
2018年8月8日
tensorflow 笔记11:tf.nn.dropout() 的使用
摘要: 使用说明: 参数 keep_prob: 表示的是保留的比例,假设为0.8 则 20% 的数据变为0,然后其他的数据乘以 1/keep_prob;keep_prob 越大,保留的越多; 参数 noise_shape:干扰形状。 此字段默认是None,表示第一个元素的操作都是独立,但是也不一定。比例:数
阅读全文
posted @ 2018-08-08 20:44 细雨微光
阅读(7980)
评论(0)
推荐(0)
2018年8月7日
tensorflow 笔记10:tf.nn.sparse_softmax_cross_entropy_with_logits 函数
摘要: 函数:tf.nn.sparse_softmax_cross_entropy_with_logits(_sentinel=None,labels=None,logits=None,name=None) #如果遇到这个问题:Rank mismatch: Rank of labels (received
阅读全文
posted @ 2018-08-07 20:18 细雨微光
阅读(11357)
评论(0)
推荐(1)
RNN,LSTM,GRU简单图解:
摘要: 一篇经典的讲解RNN的,大部分网络图都来源于此:http://colah.github.io/posts/2015-08-Understanding-LSTMs/ 每一层每一时刻的输入输出:https://www.cnblogs.com/lovychen/p/9368390.html 带有权重标识的
阅读全文
posted @ 2018-08-07 17:45 细雨微光
阅读(4974)
评论(0)
推荐(0)
2018年8月6日
python(60):configparser 函数,配置文件
摘要: ConfigParser模块学习 ConfigParser模块学习 介绍 ConfigParser模块在python中是用来读取配置文件,配置文件的格式跟windows下的ini配置文件相似,可以包含一个或多个节(section),每个节可以有多个参数(键=值)。使用的配置文件的好处就是不用再程序中
阅读全文
posted @ 2018-08-06 17:10 细雨微光
阅读(1419)
评论(0)
推荐(0)
2018年7月26日
tensorflow 笔记8:RNN、Lstm源码,训练代码输入输出,维度分析
摘要: tensorflow 官网信息:https://www.tensorflow.org/api_docs/python/tf/contrib/rnn/BasicLSTMCell tensorflow 版本:1.10 如有错误还望指正,一起探讨; 当前层各个参数含义: Tensorflow 中RNN单个
阅读全文
posted @ 2018-07-26 16:06 细雨微光
阅读(16002)
评论(1)
推荐(2)
tensorflow笔记9:nn_ops.bias_add 函数
摘要: 完整代码引入:from tensorflow.python.ops import nn_ops tensorflow version:1.9 代码演示: 输出:
阅读全文
posted @ 2018-07-26 16:01 细雨微光
阅读(1246)
评论(0)
推荐(0)
2018年7月25日
tensorflow 笔记7:tf.concat 和 ops中的array_ops.concat
摘要: 用于连接两个矩阵: mn = array_ops.concat([a, d], 1) # 按照第二维度相接,shape1 [m,a] shape2 [m,b] ,concat_done shape : [m,a+b] tensorflow Rnn,Lstm,Gru,源码中是用以上的函数来链接Xt 和
阅读全文
posted @ 2018-07-25 17:13 细雨微光
阅读(2155)
评论(0)
推荐(0)
2018年7月20日
batch,iteration,epoch 什么意思
摘要: 深度学习中经常看到epoch、 iteration和batchsize,下面按自己的理解说说这三个的区别: (1)batchsize:批大小。在深度学习中,一般采用SGD训练,即每次训练在训练集中取batchsize个样本训练; (2)iteration:1个iteration等于使用batchsi
阅读全文
posted @ 2018-07-20 20:54 细雨微光
阅读(1038)
评论(0)
推荐(0)
上一页
1
2
3
4
5
6
7
8
9
···
42
下一页