摘要:
补充一下迁移学习 迁移学习用微调比较多。比如我们按照图像分类去训练了一个神经网络,但是我们现在想要将这个神经网络运用在\(X\)光图像识别上。这就是迁移学习 方法: 我们的新数据(指的是\(X\)光图片)不多 微调(fine tuning)神经网络的最后一层即可,也就是将最后一层的参数重新初始化并训 阅读全文
posted @ 2025-03-20 22:02
最爱丁珰
阅读(13)
评论(0)
推荐(0)
摘要:
除了书上的方法,还有如下方法 人工分析训练集和验证/测试集的差异。以车载语音识别为例,假设发现验证/测试集有很多杂声(如汽车的引擎声等等),或者说包含很多街道的名字(说明模型不擅长识别街道名字)。 收集训练集中不包含的,但是验证集中有的新数据进行训练;或者对已有数据进行修改,使其包含验证集中数据的特 阅读全文
posted @ 2025-03-20 21:58
最爱丁珰
阅读(24)
评论(0)
推荐(0)
摘要:
注意,GPT只基于Transformer的解码器,没有基于编码器。GPT的主要任务是根据已经给了的句子预测下一个词(这本来就是语言模型干的事,不是说语言模型非要进行机器翻译的)。回忆一下,我们在训练Transformer的时候,解码器的部分也是有mask的(尽管我们输入的是一个完整的句子),所以解码 阅读全文
posted @ 2025-03-20 08:54
最爱丁珰
阅读(8)
评论(0)
推荐(0)

浙公网安备 33010602011771号