2017年9月18日

关于深度学习的小知识点

摘要: Q:CNN最成功的应用是在CV,那为什么NLP和Speech的很多问题也可以用CNN解出来?为什么AlphaGo里也用了CNN?这几个不相关的问题的相似性在哪里?CNN通过什么手段抓住了这个共性? 以上几个不相关问题的相关性在于,都存在局部与整体的关系,由低层次的特征经过组合,组成高层次的特征,并且 阅读全文

posted @ 2017-09-18 00:00 Peyton_Li 阅读(680) 评论(0) 推荐(0) 编辑

2017年9月17日

机器学习之逻辑回归(Logistic Regression)

摘要: 转载请注明出处:http://www.cnblogs.com/Peyton-Li/ 逻辑回归名字听起来像是做处理回归问题的,其实不然,逻辑回归是分类模型,可以被看作是一个非常小的神经网络。 逻辑回归名字听起来像是做处理回归问题的,其实不然,逻辑回归是分类模型,可以被看作是一个非常小的神经网络。 二项 阅读全文

posted @ 2017-09-17 22:23 Peyton_Li 阅读(381) 评论(0) 推荐(0) 编辑

机器学习之朴素贝叶斯法

摘要: 转载请注明出处:http://www.cnblogs.com/Peyton-Li/ 朴素贝叶斯法是机器学习模型中一个比较简单的模型,实现简单,比较常用。 是定义在输入空间上的随机向量,是定义在输出空间上的随机变量。是和的联合概率分布。训练数据集由独立同分布产生。 朴素贝叶斯法通过训练数据集学习联合概 阅读全文

posted @ 2017-09-17 22:20 Peyton_Li 阅读(1367) 评论(0) 推荐(0) 编辑

机器学习之支持向量机(Support Vector Machine)

摘要: 转载请注明出处:http://www.cnblogs.com/Peyton-Li/ 支持向量机 支持向量机(support vector machines,SVMs)是一种二类分类模型。它的基本模型是定义在特征空间上的间隔最大的线性分类器,间隔最大使它有别于感知机;支持向量机还包括核技巧,这使它成为 阅读全文

posted @ 2017-09-17 20:17 Peyton_Li 阅读(733) 评论(0) 推荐(0) 编辑

梯度下降(Gradient Descent)

摘要: 转载请注明出处:http://www.cnblogs.com/Peyton-Li/ 在求解机器学习算法的优化问题时,梯度下降是经常采用的方法之一。 梯度下降不一定能够找到全局最优解,有可能是一个局部最优解。但如果损失函数是凸函数,梯度下降法得到的一定是全局最优解。 梯度下降的相关概念: 1、步长或学 阅读全文

posted @ 2017-09-17 19:57 Peyton_Li 阅读(1731) 评论(0) 推荐(0) 编辑

导航