04 2021 档案

摘要:本文基于SO的帖子:Link: https://stackoverflow.com/questions/61848825/why-is-input-length-needed-in-layers-embedding-in-keras-tensorflow 在翻文档的时候,发现了input_lengt 阅读全文
posted @ 2021-04-11 14:50 Harry666 阅读(1629) 评论(0) 推荐(1)
摘要:from_logits是一个布尔量,当from_logits=True的时候,该层会将output做normalize(softmax) 因此,一个直观的理解就是layerA with activation + softmax + loss(from_logits=False)与layerA + l 阅读全文
posted @ 2021-04-08 22:13 Harry666 阅读(1367) 评论(0) 推荐(0)