微信扫一扫打赏支持

200927_深度学习---1-3、Meta Learning(杂)

200927_深度学习---1-3、Meta Learning(杂)

一、总结

一句话总结:

Meta Learning=Learn to learn,从其它数据集上获取先验数据,以便用少量数据(实际情况很多都是这样)可以得到很好效果

 

1、discriminator可以做生成么?

discriminator是可以做生成这件事

 

2、Structured Learning?

结构学习指的是输入和输出都是具有结构化的对象(数列、列表、树、边界框等)。

 

 

3、机器学习就是找输入到输出的函数?

无论是回归分类、对话系统、alpha-go等等等等
除了函数之外,机器学习还可以用来做生成,比如gan

 

 

4、Transfer learning?

Transfer learning是机器学习的一个分支,中文名曰迁移学习,它的目的是在获取一定的额外数据或者是存在一个已有的模型的前提下,将其应用在新的且有一定相关性的task。
source data大,target data小:在典型的迁移学习中,source data往往巨大,而target data往往比较小(例如在做语音识别任务时,你有许多不同人语音数据,
而实际应用时,你只想准确识别某一个特定的语音,与不同人的语音数据,一个特定人的语音数据显得微不足道了),如何利用好source data,帮助乃至提高模型在target data上的表现,就是迁移学习所要考虑的问题。

 

 

5、机器学习机器比喻?

就像勤奢不懈但是天资不佳的人一样,需要大量的训练才能达到和人一样的效果

 

 

6、为什么Regularization可以解决过拟合?

Regularization是把参数w加到loss里面去,而y=wx+b,参数越小,y越平滑
也就是y对x越不敏感,自然可以解决x本身噪声带来的影响(也就是去除特别数据带来的影响),也就自然越接近真实模型

 

 

 

二、内容在总结中

博客对应课程的视频位置:

 

 

 
posted @ 2020-09-30 17:55  范仁义  阅读(159)  评论(0)    收藏  举报