随笔分类 - DNN
深度神经网络
    
摘要:####Ref: https://blog.ailemon.me/2019/02/26/solution-to-loss-doesnt-drop-in-nn-train/
        阅读全文
                
摘要:目的: 根据标签值与预测值计算损失 交叉熵 $J = \sum\limits_{k}y_k\log{h_k}$ 信息熵可以用来表示信息的不确定程度 相对熵\(KL散度\)可以用来描述两个概率分布之间的差异 相对熵 = 交叉熵 信息熵 在信息熵固定的情况下,优化减小交叉熵也就是优化相对熵 又因为交叉熵
        阅读全文
                
摘要:模型选择 网络结构 损失函数 交叉熵 参数初始化方法: Xavier_normal kaiming_normal 优化算法: SGD Adam https://zhuanlan.zhihu.com/p/32230623 学习率 正则化方法: dropout BN 训练: 迭代直到达到迭代次数 正向传
        阅读全文
                
摘要:Graphical model&Gibbs Sample 1.Graphical model a.贝叶斯网络 b.马尔科夫随机场 Factor Graph
        阅读全文
                
摘要:1.使用auto-encoder生成手写数字 2.中间code层使用二维向量,使用L2norm处理中间层数据 3.从[-1,1]的矩形框中等间隔选取100个坐标点 作为code值 最终生成图像 后期应该查看一下步骤2处理后的数据分布,因为正中间的点生成了四不像
        阅读全文
                
摘要:CIFAR-10 图像处理:(预处理还是很重要的) 数据随机裁剪,填充0 依概率p水平翻转 1.VGG16 SGD lr=0.01 momentum 0.9 weight_decay=0.0001 epoch=25 batchsize=128 测试集正确率 90.4% 修改lr /= 10 epoc
        阅读全文
                
摘要:1.GAN目标函数不收敛,参数难调 2.数据集与生成集比例 3.生成四不像,模式崩塌
        阅读全文
                
摘要:目标:使G产生的分布sample出来接近D的分布 1.G产生的data是否是database中的图片 a.计算L1 L2相似度 2.GAN与其他生成器相比较,能够生成较为清晰的图片 3.一次iteration后D提升,G生成能混淆第一代D正确性的图片
        阅读全文
                
 
                     
                    
                 
                    
                
 
         浙公网安备 33010602011771号
浙公网安备 33010602011771号