03 2022 档案
transformer
摘要:CNN理解 RNN Why: CNN都是水平方向延伸,没有考虑单个隐藏层在时间上时序的变化。RNN关注每一个神经元在时间维度上的不断成长 普通的结构 加入时序关联的结构:表示隐藏层在不同时刻的状态 其中每个时间段的UWV权重矩阵都是共享一个 参考资料: LSTM 参考: 【LSTM长短期记忆网络】3 阅读全文
posted @ 2022-03-27 12:31 低八度 阅读(371) 评论(0) 推荐(0)
transformer
摘要:CNN理解 RNN Why: CNN都是水平方向延伸,没有考虑单个隐藏层在时间上时序的变化。RNN关注每一个神经元在时间维度上的不断成长 普通的结构 加入时序关联的结构:表示隐藏层在不同时刻的状态 其中每个时间段的UWV权重矩阵都是共享一个 参考资料: LSTM 参考: 【LSTM长短期记忆网络】3 阅读全文
posted @ 2022-03-27 12:30 低八度 阅读(614) 评论(0) 推荐(0)
研究方向
摘要:采用新的方法解决旧的问题, 自己能够提出新的模型结构等等 采用方法解决未解决的问题。 阅读全文
posted @ 2022-03-02 20:36 低八度 阅读(20) 评论(0) 推荐(0)