会员
周边
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
LLLiuye
不积跬步无以至千里
博客园
首页
新随笔
联系
订阅
管理
2019年3月19日
Tensorflow踩坑之tf.nn.bidirectional_dynamic_rnn()报错 “ValueError: None values not supported.”
摘要: 详细解决方法见链接:https://stackoverflow.com/questions/39808336/tensorflow bidirectional dynamic rnn none values error 主要原因:tf.nn.bidirectional_dynamic_rnn()中的
阅读全文
posted @ 2019-03-19 18:46 EEEEEcho
阅读(3721)
评论(0)
推荐(0)
2019年3月9日
TensorFlow问题“Attempting to use uninitialized value”
摘要: 1.出现的问题: 对已经保存好的模型,在进行重载并继续训练的过程中出现了以下问题: 2.解决办法: 在查找了相关资料后,了解到,该错误是指在从tfrecord中读取数据时一些参数未被初始化,如果直接restore而不进行sess.run(init)就无法正常读数据。也就是说,在重载模型前,需要进行s
阅读全文
posted @ 2019-03-09 16:29 EEEEEcho
阅读(10308)
评论(7)
推荐(0)
2019年3月6日
Ubuntu恢复被误删的文件
摘要: 主要内容转载自博客:https://blog.csdn.net/YLD10/article/details/80241160 写在前面,该方法只能用于误删的文件,若文件被 覆盖 ,则无法恢复。 1.下载工具 2.按照时间来恢复文件 即恢复到删除文件之前的那个时间(类似于数据库
阅读全文
posted @ 2019-03-06 11:11 EEEEEcho
阅读(10753)
评论(0)
推荐(0)
2018年12月20日
Ubuntu16.04 下虚拟环境的创建与使用
摘要: 1. 虚拟环境 虚拟环境(virtual environment),顾名思义是虚拟出来的环境,通俗来讲,可以借助虚拟机,docker来理解虚拟环境,就是把一部分内容独立出来,我们把这部分独立出来的东西称作“容器”。在这个容器中,我们可以只安装自己所需的依赖包,而各个容器之间相
阅读全文
posted @ 2018-12-20 15:59 EEEEEcho
阅读(12139)
评论(1)
推荐(0)
2018年9月10日
Anaconda 下libsvm的安装
摘要: 方法一. 利用VS生成动态库的安装 详细可参考这篇博文进行操作:https://blog.csdn.net/jeryjeryjery/article/details/72628255 方法二. 使用Anaconda进行安装 由于本人电脑中并没有VS,因此再查阅了一些资料后找到Anaconda下lib
阅读全文
posted @ 2018-09-10 21:14 EEEEEcho
阅读(4117)
评论(0)
推荐(0)
2018年8月29日
几种常见的损失函数
摘要: 1. 损失函数、代价函数与目标函数 损失函数(Loss Function) :是定义在单个样本上的,是指一个样本的误差。 代价函数(Cost Function) :是定义在整个训练集上的,是所有样本误差的平均,也就是所有损失函数值的平均。 &ems
阅读全文
posted @ 2018-08-29 13:42 EEEEEcho
阅读(47553)
评论(3)
推荐(5)
2018年8月16日
神经网络中常用的几种激活函数的理解
摘要: 1. 什么是激活函数 在神经网络中,我们经常可以看到对于某一个隐藏层的节点,该节点的激活值计算一般分为两步: (1)输入该节点的值为 \(x_1,x_2\) 时,在进入这个隐藏节点后,会先进行一个线性变换,计算出值 \(z^{[1]} = w_1 x_1 + w_2 x_2 + b^{[1]} =
阅读全文
posted @ 2018-08-16 16:18 EEEEEcho
阅读(57484)
评论(3)
推荐(6)
2018年8月13日
学习率(Learning rate)的理解以及如何调整学习率
摘要: 1. 什么是学习率(Learning rate)? 学习率(Learning rate)作为监督学习以及深度学习中重要的超参,其决定着目标函数能否收敛到局部最小值以及何时收敛到最小值。合适的学习率能够使目标函数在合适的时间内收敛到局部最小值。 这里以梯度下降为例,来观察一下不同的学习率对代价函数的收
阅读全文
posted @ 2018-08-13 21:49 EEEEEcho
阅读(161796)
评论(2)
推荐(3)
2018年8月10日
批量梯度下降(BGD)、随机梯度下降(SGD)以及小批量梯度下降(MBGD)的理解
摘要: 梯度下降法作为机器学习中较常使用的优化算法,其有着三种不同的形式:批量梯度下降(Batch Gradient Descent)、随机梯度下降(Stochastic Gradient Descent)以及小批量梯度下降(Mini-Batch Gradient Descent)。其中小批量梯度下降法也常
阅读全文
posted @ 2018-08-10 11:57 EEEEEcho
阅读(103039)
评论(19)
推荐(38)
2018年8月9日
Ubuntu下tensorboard的使用
摘要: 1. 找到运行程序的事件输出路径 找到路径并进入,例如我的是在路径/home/ly/codes下: 2. 打开tensorboard服务器 在终端输入(--logdir=自己所存的路径): tensorboard --logdir=/home/ly/codes 终端显示: 打开浏览器,输入终端提供网
阅读全文
posted @ 2018-08-09 15:23 EEEEEcho
阅读(8455)
评论(0)
推荐(0)
下一页
公告