随笔分类 - 深度学习
摘要:https://blog.csdn.net/jinping_shi/article/details/52433975
阅读全文
摘要:http://t.cn/RhjgPkv 密码: oppc http://www.52nlp.cn
阅读全文
摘要:转载 在信息泛滥的时代,如何快速高效地萃取出有价值信息成为人们的当务之急,传统的推荐系统由此应运而生;而在诸多领域硕果累累的深度学习也被应用于推荐系统,为后者注入新的动力。机器之心编译的这篇论文,对深度学习在推荐系统中的应用现状作了综述性调研,以期进一步推动推荐系统研究的进展;对于发现的新问题,文中
阅读全文
摘要:转载于携程技术团队 近些年,深度学习在语音识别、图像处理、自然语言处理等领域都取得了很大的突破与成就。相对来说,深度学习在推荐系统领域的研究与应用还处于早期阶段。 携程在深度学习与推荐系统结合的领域也进行了相关的研究与应用,并在国际人工智能顶级会议AAAI 2017上发表了相应的研究成果《A Hyb
阅读全文
摘要:一:引言 因为在机器学习的一些模型中,如果模型的参数太多,而训练样本又太少的话,这样训练出来的模型很容易产生过拟合现象。在训练bp网络时经常遇到的一个问题,过拟合指的是模型在训练数据上损失函数比较小,预测准确率较高(如果通过画图来表示的话,就是拟合曲线比较尖,不平滑,泛化能力不好),但是在测试数据上
阅读全文
摘要:http://blog.csdn.net/whiup/article/details/52276110 1. sigmoid激活函数 sigmoid将一个实数输入映射到[0,1]范围内,如下图(左)所示。使用sigmoid作为激活函数存在以下几个问题: 梯度饱和。当函数激活值接近于0或者1时,函数的
阅读全文
摘要:1.为什么在训练神经网络之前,要对输入数据做归一化处理? 神经网络学习过程的本质是为了学习数据的分布,一方面一旦训练数据与测试数据的分布不同,那么网络的泛化能力也降低。另一方面一旦每批训练数据的分布各不相同(batch 梯度下降),那么网络就要在每次迭代都去学习适应不同的分布,这样将会大大降低网络的
阅读全文
摘要:知乎 csdn Batch Normalization 学习笔记 原文地址:http://blog.csdn.net/hjimce/article/details/50866313 作者:hjimce 一、背景意义 本篇博文主要讲解2015年深度学习领域,非常值得学习的一篇文献:《Batch Nor
阅读全文
摘要:http://blog.csdn.net/heyongluoyao8/article/details/48636251
阅读全文

浙公网安备 33010602011771号