摘要: torch.nn.Softplus默认公式为log(1+exp(x)) import torch import numpy as np m=torch.nn.Softplus() print(m(torch.Tensor([4]))) 对x作软relu处理然后跟target进行l1损失处理。 阅读全文
posted @ 2023-03-07 21:41 祥瑞哈哈哈 阅读(18) 评论(0) 推荐(0)
摘要: 首先把输出和表情需要计算的数值提取出来然后用regression_loss去计算损失值。 调用的location_loss就是把x,y坐标图的差和bmin做了l2范式。后矩阵除以b再加上logb。 阅读全文
posted @ 2023-03-07 21:25 祥瑞哈哈哈 阅读(22) 评论(0) 推荐(0)
摘要: confidence是用bce损失做的。bce是交叉熵的缩写。 阅读全文
posted @ 2023-03-07 17:00 祥瑞哈哈哈 阅读(34) 评论(0) 推荐(0)
摘要: class CompositeLossByComponent(torch.nn.Module): """Default loss until v0.12"""这是默认的损失函数,之后作者进行版本更新对其进行了舍弃。 在forward中把输入分为confiden,reg,scale这三个特征图然后放入 阅读全文
posted @ 2023-03-07 16:15 祥瑞哈哈哈 阅读(20) 评论(0) 推荐(0)
摘要: pifpaf的loss是通过loss = network.losses.Factory().factory(datamodule.head_metas生成的。trainer的loop循环,然后train函数,然后进入train_batch这里求了loss。 factory中 if self.auto 阅读全文
posted @ 2023-03-07 11:01 祥瑞哈哈哈 阅读(27) 评论(0) 推荐(0)