摘要: 上述代码是用于初始化剩余未被初始化的变量的函数 需要注意的是,我们一般采用tf.global_variables_initializer()作为初始化op会覆盖原来通过saver.restore()方式加载的变量状态,因此,不可采用此方法。 另外,如果采用sess.run(tf.global_var 阅读全文
posted @ 2019-02-20 15:45 xchk138 阅读(939) 评论(0) 推荐(0)
摘要: 生成器对应于认知器的逆过程。 这一切的起源都是当初一个极具启发性的思想:Sleep-wake algorithm——人睡眠时整理记忆做梦,是一个生成的过程,即通过最终的识别结果企图恢复接收到的刺激,当然,恢复得到的是梦境而已,那个梦中的视觉、听觉、触觉以及嗅觉等等全和现实有关却也无关。有关是认知层次 阅读全文
posted @ 2018-11-12 16:46 xchk138 阅读(1386) 评论(0) 推荐(0)
摘要: 1.先说tf.train.Saver()的坑,这个比较严重,其损失是不可挽回的!!! 由于经常需要迁移学习,需要执行图融合的操作,于是,需要先加载一部分子图然后创建另一部分子图,训练完后保存整个模型。 问题是:直接采用tf.train.Saver()的话,等效于saver = tf.train.Sa 阅读全文
posted @ 2018-11-06 16:55 xchk138 阅读(1066) 评论(0) 推荐(0)
摘要: Python的语法是简洁的,也是难理解的。 比如yield关键字: 凡是包含yield关键字的函数都不再是一个函数,而成为一个生成器(或迭代器,Generator) Generator包含一个栈帧(Stack Frame),它维护Generator自身的执行状态,即便生成器的执行被暂停而返回到母程序 阅读全文
posted @ 2018-10-17 16:11 xchk138 阅读(448) 评论(0) 推荐(0)