【转载】 迁移学习与fine-tuning有什么区别
原文地址:
https://www.cnblogs.com/fangpengchengbupter/p/8276204.html
--------------------------------------------------------------------------------------------
假设你要处理一个新数据集,让你做图片分类,这个数据集是关于Flowers的,问题是,数据集中flower的类别很少,数据集中的数据也不多,你发现从零开始训练CNN的效果很差,很容易过拟合,怎么办呢,于是你想到了使用Transfer Learning,用别人已经训练好的Imagenet的模型来做。
做的方法有很多:
- 把Alexnet里卷积层最后一层输出的特征拿出来,然后直接用SVM分类。这是Transfer Learning,因为你用到了Alexnet中已经学到了的“知识”
- 把VGG net卷积层最后的输出拿出来,用贝叶斯分类器分类,思想基本同上。
- 甚至你可以把Alexnet,VGGnet的输出拿出来进行组合,自己设计一个分类器分类。这个过程中你不仅用了Alexnet的“知识”,也可以用VGGnet的“知识”
- 最后,你也可以使用fine-tune这种方法,在Alexnet的基础上,重新加上全连接层,再去训练网络。
综上,Transfer Learning关心的问题是:什么是“知识”以及如何更好的运用之前得到的“知识”。这可以有很多方法和手段,而fine-tune只是其中的一种手段。
--------------------------------------------------------------------------------------------
    本博客是博主个人学习时的一些记录,不保证是为原创,个别文章加入了转载的源地址,还有个别文章是汇总网上多份资料所成,在这之中也必有疏漏未加标注处,如有侵权请与博主联系。
如果未特殊标注则为原创,遵循 CC 4.0 BY-SA 版权协议。
posted on 2019-05-03 09:46 Angry_Panda 阅读(272) 评论(0) 收藏 举报
 
                    
                     
                    
                 
                    
                 
                
            
         
         
 浙公网安备 33010602011771号
浙公网安备 33010602011771号