摘要:        
torch.nn.Softplus默认公式为log(1+exp(x)) import torch import numpy as np m=torch.nn.Softplus() print(m(torch.Tensor([4]))) 对x作软relu处理然后跟target进行l1损失处理。    阅读全文
posted @ 2023-03-07 21:41
祥瑞哈哈哈
阅读(18)
评论(0)
推荐(0)
        
            
        
        
摘要:        
首先把输出和表情需要计算的数值提取出来然后用regression_loss去计算损失值。 调用的location_loss就是把x,y坐标图的差和bmin做了l2范式。后矩阵除以b再加上logb。    阅读全文
posted @ 2023-03-07 21:25
祥瑞哈哈哈
阅读(22)
评论(0)
推荐(0)
        
            
        
        
摘要:        
confidence是用bce损失做的。bce是交叉熵的缩写。    阅读全文
posted @ 2023-03-07 17:00
祥瑞哈哈哈
阅读(34)
评论(0)
推荐(0)
        
            
        
        
摘要:        
class CompositeLossByComponent(torch.nn.Module): """Default loss until v0.12"""这是默认的损失函数,之后作者进行版本更新对其进行了舍弃。 在forward中把输入分为confiden,reg,scale这三个特征图然后放入    阅读全文
posted @ 2023-03-07 16:15
祥瑞哈哈哈
阅读(20)
评论(0)
推荐(0)
        
            
        
        
摘要:        
pifpaf的loss是通过loss = network.losses.Factory().factory(datamodule.head_metas生成的。trainer的loop循环,然后train函数,然后进入train_batch这里求了loss。 factory中 if self.auto    阅读全文
posted @ 2023-03-07 11:01
祥瑞哈哈哈
阅读(27)
评论(0)
推荐(0)
        
 
                    
                
 浙公网安备 33010602011771号
浙公网安备 33010602011771号