随笔分类 -  深度学习&机器学习

摘要:当模型有多输出的时候,容易产生此问题,如以下程序所示: # zero the parameter gradients model.zero_grad() # forward + backward + optimize outputs, hidden = model(inputs, hidden) l 阅读全文
posted @ 2019-11-29 18:31 RamboBai 阅读(8303) 评论(0) 推荐(0)
摘要:本文参考自:https://github.com/apachecn/AiLearning/blob/master/src/py2.x/ml/13.PCA/pca.py https://github.com/lawlite19/MachineLearning_Python#%E5%85%ADpca%E 阅读全文
posted @ 2019-11-11 09:08 RamboBai 阅读(4004) 评论(1) 推荐(0)
摘要:1.多输入通道 当输入数据含多个通道时,我们需要构造一个输入通道数与输入数据的通道数相同的卷积核。以1维卷积为例,卷积窗口大小为1*1,输入有三个通道,所以卷积的通道数也应该为3个通道。如下图所示,输入的数据有三个通道,卷积也有三个通道,每个通道都是一个1维的卷积核且卷积核的大小为1​1, 但是这样 阅读全文
posted @ 2019-11-09 20:45 RamboBai 阅读(4464) 评论(0) 推荐(0)
摘要:本文参考自:(1)李航《统计学习与方法》 (2)https://github.com/apachecn/AiLearning/blob/master/src/py2.x/ml/7.AdaBoost/adaboost.py 提升方法(boosting)是一种常用的统计学习方法,在分类问题中,他通过改变 阅读全文
posted @ 2019-11-08 16:18 RamboBai 阅读(7338) 评论(2) 推荐(2)
摘要:本文转载自:https://github.com/apachecn/AiLearning/blob/e6ddd161f89f42d45fcee483b2292a8c7b2a9638/src/py2.x/ml/7.RandomForest/randomForest.py#L136 from rando 阅读全文
posted @ 2019-11-07 16:29 RamboBai 阅读(9035) 评论(2) 推荐(0)
摘要:转载自:https://github.com/apachecn/AiLearning/blob/master/docs/ml/4.%E6%9C%B4%E7%B4%A0%E8%B4%9D%E5%8F%B6%E6%96%AF.md 应用贝叶斯准则: 使用上面这些定义,可以定义贝叶斯分类准则为: 如果 P 阅读全文
posted @ 2019-11-05 14:11 RamboBai 阅读(1280) 评论(0) 推荐(0)
摘要:本文参考自:https://www.jianshu.com/p/154ee3354b59 和 李航博士的《统计学习方法》 1. 2. 创建观测结果数据 输出一下,观察一下结果: 结果: matrix([[0., 0., 1., 1., 1., 1., 0., 1., 0., 1.]]) 3. EM算 阅读全文
posted @ 2019-11-04 10:39 RamboBai 阅读(2579) 评论(0) 推荐(1)
摘要:本代码参考自: https://github.com/lawlite19/MachineLearning_Python/blob/master/K-Means/K-Menas.py 1. 初始化类中心,从样本中随机选取K个点作为初始的聚类中心点 2. 找出每个样本离哪一个类中心的距离最近,并返回 3 阅读全文
posted @ 2019-11-02 13:38 RamboBai 阅读(3764) 评论(0) 推荐(0)
摘要:本代码来源自:https://github.com/Erikfather/Decision_tree-python 1.数据集描述 为了方便,我对数据集进行如下处理: 在编写代码之前,我们先对数据集进行属性标注。 (0)年龄:0代表青年,1代表中年,2代表老年; (1)有工作:0代表否,1代表是; 阅读全文
posted @ 2019-10-31 16:39 RamboBai 阅读(4324) 评论(0) 推荐(0)
摘要:本代码参考自:https://github.com/lawlite19/MachineLearning_Python/blob/master/LogisticRegression/LogisticRegression.py 1. 读取数据集 2. 查看原始数据的分布 结果: 3. 将数据映射为多项式 阅读全文
posted @ 2019-10-30 18:46 RamboBai 阅读(3358) 评论(0) 推荐(0)
摘要:本代码参考自:https://github.com/lawlite19/MachineLearning_Python#%E4%B8%80%E7%BA%BF%E6%80%A7%E5%9B%9E%E5%BD%92 首先,线性回归公式:y = X*W +b 其中X是m行n列的数据集,m代表样本的个数,n代 阅读全文
posted @ 2019-10-30 13:45 RamboBai 阅读(2232) 评论(0) 推荐(0)
摘要:本文转自:https://www.cntofu.com/book/85/dl/rnn/bptt.md 随时间反向传播(BPTT)算法 先简单回顾一下RNN的基本公式: st=tanh(Uxt+Wst−1)st=tanh⁡(Uxt+Wst−1) y^t=softmax(Vst)y^t=softmax( 阅读全文
posted @ 2019-06-25 19:35 RamboBai 阅读(930) 评论(0) 推荐(0)
摘要:本文转自:https://www.jianshu.com/p/a9247add0046 livelossplot 这款工具用于实时绘制训练时的损失和准确率,方便好用,不需要自己另外再写 plot 函数。Keras 和 PyTorch 中都可以使用。之前推荐过给朋友,最近自己才用上,感觉真的超方便了~ 阅读全文
posted @ 2019-05-20 13:58 RamboBai 阅读(5938) 评论(0) 推荐(0)
摘要:本文参考自:https://stackoverflow.com/questions/43979449/higher-validation-accuracy-than-training-accurracy-using-tensorflow-and-keras https://www.quora.com 阅读全文
posted @ 2019-05-20 08:48 RamboBai 阅读(35473) 评论(2) 推荐(3)
摘要:本次学习来自李宏毅老师的机器学习视频 首先梯度下降法: 这时候要小心调你的学习率: 做梯度下降的时候你应该把上方的图画出来,知道曲线的走势,才好调学习率。 但调学习率很麻烦,有没有一些自动的办法来帮助我们调学习率呢? 最基本的原则是随着参数的更新让学习率变得越来越小。为什么会这样呢?因为当你在开始的 阅读全文
posted @ 2019-05-18 21:27 RamboBai 阅读(634) 评论(0) 推荐(0)
摘要:对鸢尾花数据集采用主成分分析方法,使数据降维。 如下图所示为数据集的格式: 数据集中前4列数据分别代表花萼长度,花萼宽度,花瓣长度,花瓣宽度,最后一列为标签。共有150条数据。 我们对此数据集利用主成分分析方法,取出数据集的前4列特征组成矩阵X, 矩阵X的维度为150*4,对其进行转置后变为4*15 阅读全文
posted @ 2019-05-10 21:02 RamboBai 阅读(6359) 评论(0) 推荐(1)
摘要:基于上次的内容,这节内容主要介绍如何利用摄像头进行实时的人脸表情识别。 (1)首先实时的检测出人脸,然后把检测出的人脸截取下来送到模型中去做判别。这里检测人脸用到了opencv中自带的人脸检测器 (2)上边是检测静态图片的,检测实时检测人脸的方式是: if cv2.waitKey(30) & 0xF 阅读全文
posted @ 2019-05-09 14:26 RamboBai 阅读(4212) 评论(1) 推荐(0)
摘要:参考网址:https://sefiks.com/2018/01/01/facial-expression-recognition-with-keras/ 1.数据集介绍及处理: (1) 数据集Fer2013下载地址为:https://www.kaggle.com/c/challenges-in-re 阅读全文
posted @ 2019-05-09 09:21 RamboBai 阅读(14348) 评论(3) 推荐(0)
摘要:转载: (1) https://zhuanlan.zhihu.com/p/51200626 (2) 菊安酱的机器学习第三期 (3) 代码来自:https://github.com/WenDesi/lihang_book_algorithm (4) https://blog.csdn.net/taij 阅读全文
posted @ 2019-05-08 16:29 RamboBai 阅读(7052) 评论(0) 推荐(2)
摘要:最近在看人脸表情识别论文的时候,看到了有用中心损失函数(Cemter Loss),中心损失它仅仅用来减少类内(比如说同一表情)的差异,而不能有效增大类间(比如说不同表情)的差异性。如下图所示: 上图中,图(a)表示softmax loss学习到的特征描述 。图(b)表示softmax loss + 阅读全文
posted @ 2019-05-05 09:58 RamboBai 阅读(16457) 评论(0) 推荐(1)