摘要: 1.CrossEntropyLoss()损失函数 交叉熵主要是用来判定实际的输出与期望的输出的接近程度,为什么这么说呢,举个例子:在做分类的训练的时候,如果一个样本属于第K类,那么这个类别所对应的的输出节点的输出值应该为1,而其他节点的输出都为0,即[0,0,1,0,….0,0],这个数组也就是样本 阅读全文
posted @ 2020-08-03 18:20 雨后观山色 阅读(1552) 评论(0) 推荐(0)
摘要: 1.LSTM模型参数说明 class torch.nn.LSTM(*args, **kwargs) 参数列表 input_size:x的特征维度 hidden_size:隐藏层的特征维度 num_layers:lstm隐层的层数,默认为1 bias:False则bih=0和bhh=0. 默认为Tru 阅读全文
posted @ 2020-08-03 14:55 雨后观山色 阅读(4732) 评论(0) 推荐(0)
摘要: 1.model.train()与model.eval()的用法 看别人的面经时,浏览到一题,问的就是这个。自己刚接触pytorch时套用别人的框架,会在训练开始之前写上model.trian(),在测试时写上model.eval()。然后自己写的时候也就保留了这个习惯,没有去想其中原因。 在经过一番 阅读全文
posted @ 2020-08-03 09:35 雨后观山色 阅读(15127) 评论(0) 推荐(4)