随笔分类 -  深度学习

摘要:github:https://github.com/zle1992/Seq2Seq-Chatbot 1、 注意在infer阶段,需要需要reuse, 2、If you are using the BeamSearchDecoder with a cell wrapped in AttentionWr 阅读全文
posted @ 2019-03-27 16:18 乐乐章 阅读(1542) 评论(0) 推荐(1)
摘要:前置知识: sigmod 函数 LR 1层神经网络 dL/dz 简称dz_,L(a,y)使用交叉熵。 da_ = dL/da = (-(y/a) + ((1-y)/(1-a))) dz_ = dL/da * da/dz = da_* g'(z) dw_ = dL/dz *dz/dw = dz* x 阅读全文
posted @ 2018-12-30 16:54 乐乐章 阅读(553) 评论(0) 推荐(0)