摘要:
LSTM 一、为什么要从 RNN 走向 LSTM 在学习并实践了 RNN 之后,会遇到一个非常现实的问题: 当序列变长时,RNN 很难记住早期的信息。 在实际训练中,这通常表现为: 模型只能利用最近的几个时间步 远距离的上下文信息逐渐被“遗忘” 长文本任务效果明显下降 这一问题并不是代码实现错误,而 阅读全文
posted @ 2025-12-09 19:24
元始天尊123
阅读(4)
评论(0)
推荐(0)
摘要:
《人月传说》读后感 Frederick P.Brooks,Brooks被认为是“IBM 360系统之父”,他担任了360系统的项目经理,以及360操作系统项目设计阶段的经理。凭借在上述项目的杰出贡献,他、Bob Evans和Erich Bloch在1985年荣获了美国国家技术奖(National M 阅读全文
posted @ 2025-12-09 19:24
元始天尊123
阅读(3)
评论(0)
推荐(0)
摘要:
RNN 一、为什么需要 RNN 在 NLP 任务中,文本并不是一组无序的词,而是具有顺序关系的序列。 例如下面两句话: 我 喜欢 学习 NLP NLP 学习 喜欢 我 它们包含相同的词,但顺序不同,语义完全不同。 这说明: 词的顺序和上下文信息,对理解文本至关重要。 传统的词向量或 N-gram 方 阅读全文
posted @ 2025-12-09 19:23
元始天尊123
阅读(3)
评论(0)
推荐(0)

浙公网安备 33010602011771号