03 2022 档案
transformer
摘要:CNN理解 RNN Why: CNN都是水平方向延伸,没有考虑单个隐藏层在时间上时序的变化。RNN关注每一个神经元在时间维度上的不断成长 普通的结构 加入时序关联的结构:表示隐藏层在不同时刻的状态 其中每个时间段的UWV权重矩阵都是共享一个 参考资料: LSTM 参考: 【LSTM长短期记忆网络】3
阅读全文
transformer
摘要:CNN理解 RNN Why: CNN都是水平方向延伸,没有考虑单个隐藏层在时间上时序的变化。RNN关注每一个神经元在时间维度上的不断成长 普通的结构 加入时序关联的结构:表示隐藏层在不同时刻的状态 其中每个时间段的UWV权重矩阵都是共享一个 参考资料: LSTM 参考: 【LSTM长短期记忆网络】3
阅读全文
浙公网安备 33010602011771号