会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
xchk138
博客园
首页
新随笔
联系
订阅
管理
上一页
1
···
16
17
18
19
20
21
下一页
2019年2月20日
Tensorflow选择性初始化图中的变量
摘要: 上述代码是用于初始化剩余未被初始化的变量的函数 需要注意的是,我们一般采用tf.global_variables_initializer()作为初始化op会覆盖原来通过saver.restore()方式加载的变量状态,因此,不可采用此方法。 另外,如果采用sess.run(tf.global_var
阅读全文
posted @ 2019-02-20 15:45 xchk138
阅读(939)
评论(0)
推荐(0)
2018年11月12日
生成器的认识及其思考:VAE, GAN, Flow-based Invertible Model
摘要: 生成器对应于认知器的逆过程。 这一切的起源都是当初一个极具启发性的思想:Sleep-wake algorithm——人睡眠时整理记忆做梦,是一个生成的过程,即通过最终的识别结果企图恢复接收到的刺激,当然,恢复得到的是梦境而已,那个梦中的视觉、听觉、触觉以及嗅觉等等全和现实有关却也无关。有关是认知层次
阅读全文
posted @ 2018-11-12 16:46 xchk138
阅读(1386)
评论(0)
推荐(0)
2018年11月6日
图融合之加载子图:Tensorflow.contrib.slim与tf.train.Saver之坑
摘要: 1.先说tf.train.Saver()的坑,这个比较严重,其损失是不可挽回的!!! 由于经常需要迁移学习,需要执行图融合的操作,于是,需要先加载一部分子图然后创建另一部分子图,训练完后保存整个模型。 问题是:直接采用tf.train.Saver()的话,等效于saver = tf.train.Sa
阅读全文
posted @ 2018-11-06 16:55 xchk138
阅读(1066)
评论(0)
推荐(0)
2018年10月17日
Python学习——多线程,异步IO,生成器,协程
摘要: Python的语法是简洁的,也是难理解的。 比如yield关键字: 凡是包含yield关键字的函数都不再是一个函数,而成为一个生成器(或迭代器,Generator) Generator包含一个栈帧(Stack Frame),它维护Generator自身的执行状态,即便生成器的执行被暂停而返回到母程序
阅读全文
posted @ 2018-10-17 16:11 xchk138
阅读(448)
评论(0)
推荐(0)
上一页
1
···
16
17
18
19
20
21
下一页
公告