摘要:
这里就不手动实现了,因为其实大同小异,把代码看懂了,下次要用的时候直接抄就行了。 vocab class Vocab: def __init__(self, tokens=None, min_freq=0, reserved_tokens=None): counter = count_corpus( 阅读全文
posted @ 2021-11-13 12:08
kalice
阅读(403)
评论(0)
推荐(0)
摘要:
import torch import torch.nn as nn import torch.nn.functional as F import math class LSTM(nn.Module): def __init__(self, indim, hidim, outdim): super( 阅读全文
posted @ 2021-11-13 10:50
kalice
阅读(374)
评论(0)
推荐(0)
摘要:
GRU说白了就是加了两个门,这两个门控制最终隐藏状态的输出,其中还是那一套换汤不换药。 R是重置门,决定上一个时间步$h_{t-1}$是否要被重置,如果R元素全为0,很显然我们就丢掉了上一个时间步的h信息。 S是更新门,决定了这个时刻的候选隐藏状态$h_{t}^{\prime}$应该怎么输出。 注意 阅读全文
posted @ 2021-11-13 10:11
kalice
阅读(7561)
评论(2)
推荐(0)

浙公网安备 33010602011771号