• 博客园logo
  • 会员
  • 众包
  • 新闻
  • 博问
  • 闪存
  • 赞助商
  • HarmonyOS
  • Chat2DB
    • 搜索
      所有博客
    • 搜索
      当前博客
  • 写随笔 我的博客 短消息 简洁模式
    用户头像
    我的博客 我的园子 账号设置 会员中心 简洁模式 ... 退出登录
    注册 登录
利炳根
敲代码、学日语,不做任何付费咨询
博客园 | 首页 | 新随笔 | 新文章 | 联系 | 订阅 订阅 | 管理

2017年8月12日

学习笔记TF040:多GPU并行
摘要: TensorFlow并行,模型并行,数据并行。模型并行根据不同模型设计不同并行方式,模型不同计算节点放在不同硬伯上资源运算。数据并行,比较通用简便实现大规模并行方式,同时使用多个硬件资源计算不同batch数据梯度,汇总梯度全局参数更新。 数据并行,多块GPU同时训练多个batch数据,运行在每块GP 阅读全文
posted @ 2017-08-12 11:15 利炳根 阅读(6262) 评论(0) 推荐(0)
 
学习笔记TF039:TensorBoard
摘要: 首先向大家和《TensorFlow实战》的作者说句不好意思。我现在看的书是《TensorFlow实战》。但从TF024开始,我在学习笔记的参考资料里一直写的是《TensorFlow实践》,我自己粗心搞错了,希望不至于对大家造成太多误导。 TensorBoard,TensorFlow官方可视化工具。展 阅读全文
posted @ 2017-08-12 11:13 利炳根 阅读(1208) 评论(0) 推荐(0)
 
学习笔记TF038:实现估值网络
摘要: Q-Learning,学习Action对应期望值(Expected Utility)。1989年,Watkins提出。收敛性,1992年,Watkins和Dayan共同证明。学习期望价值,从当前一步到所有后续步骤,总期望获取最大价值(Q值、Value)。Action->Q函数,最佳策略,在每个sta 阅读全文
posted @ 2017-08-12 11:11 利炳根 阅读(643) 评论(0) 推荐(0)
 
学习笔记TF037:实现强化学习策略网络
摘要: 强化学习(Reinforcement Learing),机器学习重要分支,解决连续决策问题。强化学习问题三概念,环境状态(Environment State)、行动(Action)、奖励(Reward),目标获得最多累计奖励。强化学习模型根据环境状态、行动和奖励,学习出最佳策略,以最终结果为目标,不 阅读全文
posted @ 2017-08-12 11:09 利炳根 阅读(3311) 评论(0) 推荐(0)
 
学习笔记TF036:实现Bidirectional LSTM Classifier
摘要: 双向循环神经网络(Bidirectional Recurrent Neural Networks,Bi-RNN),Schuster、Paliwal,1997年首次提出,和LSTM同年。Bi-RNN,增加RNN可利用信息。普通MLP,数据长度有限制。RNN,可以处理不固定长度时序数据,无法利用历史输入 阅读全文
posted @ 2017-08-12 11:07 利炳根 阅读(4369) 评论(0) 推荐(0)
 
学习笔记TF035:实现基于LSTM语言模型
摘要: 神经结构进步、GPU深度学习训练效率突破。RNN,时间序列数据有效,每个神经元通过内部组件保存输入信息。 卷积神经网络,图像分类,无法对视频每帧图像发生事情关联分析,无法利用前帧图像信息。RNN最大特点,神经元某些输出作为输入再次传输到神经元,可以利用之前信息。 xt是RNN输入,A是RNN节点,h 阅读全文
posted @ 2017-08-12 11:05 利炳根 阅读(2338) 评论(0) 推荐(0)
 
 

公告


博客园  ©  2004-2025
浙公网安备 33010602011771号 浙ICP备2021040463号-3