摘要:
torch.nn.Softplus默认公式为log(1+exp(x)) import torch import numpy as np m=torch.nn.Softplus() print(m(torch.Tensor([4]))) 对x作软relu处理然后跟target进行l1损失处理。 阅读全文
posted @ 2023-03-07 21:41
祥瑞哈哈哈
阅读(22)
评论(0)
推荐(0)
摘要:
首先把输出和表情需要计算的数值提取出来然后用regression_loss去计算损失值。 调用的location_loss就是把x,y坐标图的差和bmin做了l2范式。后矩阵除以b再加上logb。 阅读全文
posted @ 2023-03-07 21:25
祥瑞哈哈哈
阅读(27)
评论(0)
推荐(0)
摘要:
confidence是用bce损失做的。bce是交叉熵的缩写。 阅读全文
posted @ 2023-03-07 17:00
祥瑞哈哈哈
阅读(36)
评论(0)
推荐(0)
摘要:
class CompositeLossByComponent(torch.nn.Module): """Default loss until v0.12"""这是默认的损失函数,之后作者进行版本更新对其进行了舍弃。 在forward中把输入分为confiden,reg,scale这三个特征图然后放入 阅读全文
posted @ 2023-03-07 16:15
祥瑞哈哈哈
阅读(24)
评论(0)
推荐(0)
摘要:
pifpaf的loss是通过loss = network.losses.Factory().factory(datamodule.head_metas生成的。trainer的loop循环,然后train函数,然后进入train_batch这里求了loss。 factory中 if self.auto 阅读全文
posted @ 2023-03-07 11:01
祥瑞哈哈哈
阅读(29)
评论(0)
推荐(0)

浙公网安备 33010602011771号