Keras的TimeDistributed层作用
Keras的TimeDistributed层作用
一、总结
一句话总结:
时间维度上全连接:Keras的TimeDistributed层主要用途是在时间维度上进行全连接.
时间维度上切片全连接:一次性输入16×7×7×512,进行全连接,相当于16个时间切片,对每个7×7×512的切片分别进行全连接(Dense),最后就得到16个分类和回归.
比如Faster RCNN,1张图生成了16个ROI,需要对每一个ROI进行分类和回归,ROI的维度是7×7×512,长度和宽度都是7,512个通道,
16个ROI的的维度是16×7×7×512,需要得到16个分类和回归,这个时候就可以使用TimeDistributed层了.
一次性输入16×7×7×512,进行全连接,相当于16个时间切片,对每个7×7×512的切片分别进行全连接(Dense),最后就得到16个分类和回归.
二、内容在总结中
转自或参考:Keras的TimeDistributed层
https://www.cnblogs.com/mstk/p/12127452.html
版权申明:欢迎转载,但请注明出处
一些博文中有一些参考内容因时间久远找不到来源了没有注明,如果侵权请联系我删除。
在校每年国奖、每年专业第一,加拿大留学,先后工作于华东师范大学和香港教育大学。
2025-04-30:宅加太忙,特此在网上找女朋友,坐标上海,非诚勿扰,vx:fan404006308
AI交流资料群:753014672