摘要: 这里就不手动实现了,因为其实大同小异,把代码看懂了,下次要用的时候直接抄就行了。 vocab class Vocab: def __init__(self, tokens=None, min_freq=0, reserved_tokens=None): counter = count_corpus( 阅读全文
posted @ 2021-11-13 12:08 kalice 阅读(403) 评论(0) 推荐(0)
摘要: import torch import torch.nn as nn import torch.nn.functional as F import math class LSTM(nn.Module): def __init__(self, indim, hidim, outdim): super( 阅读全文
posted @ 2021-11-13 10:50 kalice 阅读(374) 评论(0) 推荐(0)
摘要: GRU说白了就是加了两个门,这两个门控制最终隐藏状态的输出,其中还是那一套换汤不换药。 R是重置门,决定上一个时间步$h_{t-1}$是否要被重置,如果R元素全为0,很显然我们就丢掉了上一个时间步的h信息。 S是更新门,决定了这个时刻的候选隐藏状态$h_{t}^{\prime}$应该怎么输出。 注意 阅读全文
posted @ 2021-11-13 10:11 kalice 阅读(7561) 评论(2) 推荐(0)