首页
新闻
博问
专区
闪存
班级
我的博客
我的园子
账号设置
退出登录
注册
登录
游园惊梦(https://github.com/chenghuige)
博客园
首页
新随笔
联系
订阅
管理
2017年1月8日
Tensorflow Seq2seq attention decode解析
摘要:tensorflow基于 Grammar as a Foreign Language实现,这篇论文给出的公式也比较清楚。 这里关注seq2seq.attention_decode函数, 主要输入 decoder_inputs, initial_state, attention_states, 这里可以主要参考 models/textsum的应用,textsum采用的多层双向...
阅读全文
posted @ 2017-01-08 10:00 阁子
阅读(10897)
评论(1)
推荐(0)
编辑