随笔分类 - 26.DL
摘要:1.Sklearn简介 Scikit-learn(sklearn)是机器学习中常用的第三方模块,对常用的机器学习方法进行了封装,包括回归(Regression)、降维(Dimensionality Reduction)、分类(Classfication)、聚类(Clustering)等方法。当我们面
阅读全文
摘要:1.牛顿法:是通过求解目标函数的一阶导数为0时的参数,进而求出目标函数最小值时的参数。 收敛速度很快。 海森矩阵的逆在迭代过程中不断减小,可以起到逐步减小步长的效果。 缺点:海森矩阵的逆计算复杂,代价比较大,因此有了拟牛顿法。 2.梯度下降法:是通过梯度方向和步长,直接求解目标函数的最小值时的参数。
阅读全文
摘要:梯度下降和随机梯度下降之间的关键区别: 1、标准梯度下降是在权值更新前对所有样例汇总误差,而随机梯度下降的权值是通过考查某个训练样例来更新的。 2、在标准梯度下降中,权值更新的每一步对多个样例求和,需要更多的计算。 3、标准梯度下降,由于使用真正的梯度,标准梯度下降对于每一次权值更新经常使用比随机梯
阅读全文
摘要:Generative Adversarial Network,就是大家耳熟能详的 GAN,由 Ian Goodfellow 首先提出,在这两年更是深度学习中最热门的东西,仿佛什么东西都能由 GAN 做出来。我最近刚入门 GAN,看了些资料,做一些笔记。 1.Generation 什么是生成(gene
阅读全文
摘要:图1:面部交换和重新激活。左:源面交换到目标上。右:用于控制源图像中出现的面部表情的目标视频。在这两种情况下,我们的结果出现在中间。更多信息请访问我们的网站:https://nirkin.com/fsgan。 我们提出了一种人脸交换gan(fsgan)来实现人脸交换和再激活。与之前的工作不同,fsg
阅读全文
摘要:声明:以下内容纯为形成笔记过程中,增加趣味性,无他。若有相关利益冲突/侵权,指出删。不当处,亦欢迎指正。更多分享欢迎关注微信公众号:机器学习与生成对抗网络 背景:《铁甲小宝》是我极其幼时、已记不起来看的一部日本动画片,剧情忘了,但是还记得在外婆家偷偷用黑白电视机看的场景。用到此处,想致敬下这部动画片
阅读全文
摘要:Ian J. Goodfellow等人于2014年在论文Generative Adversarial Nets中提出了一个通过对抗过程估计生成模型的新框架。框架中同时训练两个模型:一个生成模型(generative model)G,用来捕获数据分布;一个判别模型(discriminative mod
阅读全文
摘要:1. https://zhuanlan.zhihu.com/p/34042498 深度解密换脸应用Deepfake 2. 在 1 里面提到的PixelShuffle,具体见参考3: https://mathematica.stackexchange.com/questions/181587/how-
阅读全文
摘要:—— 原文发布于本人的微信公众号“大数据与人工智能Lab”(BigdataAILab),欢迎关注。 2014年,牛津大学计算机视觉组(Visual Geometry Group)和Google DeepMind公司的研究员一起研发出了新的深度卷积神经网络:VGGNet,并取得了ILSVRC2014比
阅读全文
摘要:什么是监督学习、无监督学习、强化学习、弱监督学习、半监督学习、多示例学习?随着机器学习问题不断深入人心,人们也将现实中遇到不同的问题分为不同的学习方式,其中,最基础的应属监督学习,无监督学习和强化学习了。 监督学习(supervised learning):已知数据和其一一对应的标签,训练一个智能算
阅读全文
摘要:阅读原文 这段时间正在学习tensorflow的卷积神经网络部分,为了对卷积神经网络能够有一个更深的了解,自己动手实现一个例程是比较好的方式,所以就选了一个这样比较有点意思的项目。 项目的github地址:github 喜欢的话就给个Star吧。 想要她认得我,就需要给她一些我的照片,让她记住我的人
阅读全文
摘要:原文:https://zhuanlan.zhihu.com/p/76827460?utm_source=wechat_session&utm_medium=social&utm_oi=810517722894045184 这里是 王喆的机器学习笔记 的第二十四篇文章。最近互联网公司的秋招如火如荼的进
阅读全文
摘要:在上次的动画简介中, 我们大概了解了一些迁移学习的原理和为什么要使用迁移学习. 如果用一句话来概括迁移学习, 那务必就是: “为了偷懒, 在训练好了的模型上接着训练其他内容, 充分使用原模型的理解力”. 有时候也是为了避免再次花费特别长的时间重复训练大型模型. CNN 通常都是大型模型, 下面我们拿
阅读全文
摘要:原文:https://zhuanlan.zhihu.com/p/65116688 经典强化学习: 在标准强化学习任务中,智能体与环境之间的交互作用常常建模为马尔科夫决策过程,本专栏的第一讲就是马尔科夫决策过程,不熟悉的读者可以到第一讲去看看。为了保证行文连贯性,这里再简单重复下马尔科夫决策过程。 马
阅读全文
摘要:原文:https://zhuanlan.zhihu.com/p/68205048 与其他机器学习方法相比,比如监督式学习、迁移学习、甚至非监督式学习学习相比,深度强化学习方法极其需要大量数据,而且常常不稳定,从性能上来说可能不是最好的选择。 RL一直以来只成功地应用于那些可以根据需要生成大量模拟数据
阅读全文
摘要:原文地址: https://zhuanlan.zhihu.com/p/33133828 (本文最开始写在WPS里,往知乎粘贴后格式和高亮都没有了。大家可以从CSDN再励学习面试真题-CSDN下载下载本文。百度文库、道客巴巴强行不让公开。) 前言 本人于17年4月对再励学习产生了兴趣,8月将其定为自己
阅读全文
摘要:在过去的几个月里,我参加了很多公司的面试,主要是针对数据科学和机器学习的入门级职位。我是一名机器学习和计算机视觉硕士研究生,再过几个月就要毕业了。我以前的大部分经验都是与学术研究有关,也曾在一家初创公司(与机器学习无关)呆过 8 个月。我所面试的这些职位所涉及的工作包括数据科学、通用机器学习以及自然
阅读全文
摘要:在强化学习(三)用动态规划(DP)求解中,我们讨论了用动态规划来求解强化学习预测问题和控制问题的方法。但是由于动态规划法需要在每一次回溯更新某一个状态的价值时,回溯到该状态的所有可能的后续状态。导致对于复杂问题计算量很大。同时很多时候,我们连环境的状态转化模型P都无法知道,这时动态规划法根本没法使用
阅读全文
摘要:在强化学习(二)马尔科夫决策过程(MDP)中,我们讨论了用马尔科夫假设来简化强化学习模型的复杂度,这一篇我们在马尔科夫假设和贝尔曼方程的基础上讨论使用动态规划(Dynamic Programming, DP)来求解强化学习的问题。动态规划这一篇对应Sutton书的第四章和UCL强化学习课程的第三讲。
阅读全文
摘要:在强化学习(一)模型基础中,我们讲到了强化学习模型的8个基本要素。但是仅凭这些要素还是无法使用强化学习来帮助我们解决问题的, 在讲到模型训练前,模型的简化也很重要,这一篇主要就是讲如何利用马尔科夫决策过程(Markov Decision Process,以下简称MDP)来简化强化学习的建模。 MDP
阅读全文
浙公网安备 33010602011771号