摘要:        
loss变小梯度反而没有变小。 背景sigmoid(wx+b)的二分类实验,损失函数为平方损失。 实验一:直接训练发现loss减少导致梯度减少。看代码1: 实验二:在wx+b后加上BN层梯loss减少梯度减少。看代码2: 代码1: from enum import auto from scipy.i    阅读全文
posted @ 2022-11-07 11:58
祥瑞哈哈哈
阅读(83)
评论(0)
推荐(0)
        
            
        
        
摘要:        
背景二分类问题,最后一层的输出函数为sigmoid函数。随着训练是否会出现梯度衰减的情况。 训练时模型为了降低损失函数,会尽可能提高正类的置信度降低负类的置信度。 结果: 并未发现正常训练导致的梯度衰减。 代码: from enum import auto from scipy.io import     阅读全文
posted @ 2022-11-07 11:09
祥瑞哈哈哈
阅读(60)
评论(0)
推荐(0)
        
            
        
        
摘要:        
不管用。因为学习率乘以梯度是步长,而梯度衰减返回的梯度是0所以调大学习率不管用。 from enum import auto from scipy.io import loadmat import numpy as np import torch import torch.utils.data as    阅读全文
posted @ 2022-11-07 10:33
祥瑞哈哈哈
阅读(23)
评论(0)
推荐(0)
        
            
        
        
摘要:        
答案;不是。 import numpy as np w=np.array([100,10000,1000000]) print((w-w.mean())/np.std(w)) 输出结果: [-0.71763397 -0.69652709 1.41416106]    阅读全文
posted @ 2022-11-07 10:11
祥瑞哈哈哈
阅读(73)
评论(0)
推荐(0)
        
 
                    
                     
                    
                 
                    
                
 
         浙公网安备 33010602011771号
浙公网安备 33010602011771号