随笔分类 -  ML

write some notes while i study machine learning
交叉熵-loss-理解
摘要:参考链接: https://blog.csdn.net/tsyccnh/article/details/79163834 阅读全文

posted @ 2019-09-25 16:08 洛珈山下 阅读(245) 评论(0) 推荐(0)

keras multi-label classification 多标签分类
摘要:问题:一个数据又多个标签,一个样本数据多个类别中的某几类;比如一个病人的数据有多个疾病,一个文本有多种题材,所以标签就是: [1,0,0,0,1,0,1] 这种高维稀疏类型,如何计算分类准确率? 分类问题: 二分类 多分类 多标签 Keras metrics (性能度量) 介绍的比较好的一个博客: 阅读全文

posted @ 2019-09-20 23:58 洛珈山下 阅读(4702) 评论(0) 推荐(0)

数据预处理-机器学习
摘要:参考文章:https://blog.csdn.net/marsjhao/article/details/70213749 常见的数据预处理流程: 去除唯一属性,处理缺失值,特征编码,数据标准化正则化,特征选择,主成分分析; 特征编码: # 度热编码 (one-hot encoding) : 用N位的 阅读全文

posted @ 2019-05-09 22:30 洛珈山下 阅读(429) 评论(0) 推荐(0)

jupyter && ipython notebook简介
摘要:2017-08-19 最近用了一下 ipython notebook 也就是 jupyter,这里有一个介绍还不错: http://www.cnblogs.com/howiewang/p/jupyter-install.html 阅读全文

posted @ 2017-08-19 09:51 洛珈山下 阅读(187) 评论(0) 推荐(0)

Logistic回归python实现
摘要:2017-08-12 Logistic 回归,作为分类器: 分别用了梯度上升,牛顿法来最优化损失函数: # -*- coding: utf-8 -*-'''function: 实现Logistic回归,拟合直线,对数据进行分类;利用梯度上升,随机梯度上升,改进的随机梯度上升,牛顿法分别对损失函数优化 阅读全文

posted @ 2017-08-12 21:46 洛珈山下 阅读(3738) 评论(0) 推荐(0)

HMM代码实现
摘要:按照网上的代码,自己敲了一下,改了一点点,理解加深了一下。 还有训练HMM的EM算法没看懂,下次接着看; 参考连接:http://www.cnblogs.com/hanahimi/p/4011765.html 阅读全文

posted @ 2017-08-10 16:36 洛珈山下 阅读(2016) 评论(1) 推荐(0)

决策树代码《机器学习实战》
摘要:22:45:17 2017-08-09 KNN算法简单有效,可以解决很多分类问题。但是无法给出数据的含义,就是一顿计算向量距离,然后分类。 决策树就可以解决这个问题,分类之后能够知道是问什么被划分到一个类。用图形画出来就效果更好了,这次没有学哪个画图的,下次。 这里只涉及信息熵的计算,最佳分类特征的 阅读全文

posted @ 2017-08-09 22:46 洛珈山下 阅读(356) 评论(0) 推荐(0)

HMM简单理解(来自quora&其他网上资料)
摘要:转载自quora: 连接:https://www.quora.com/What-is-a-simple-explanation-of-the-Hidden-Markov-Model-algorithm 理解一 通俗的理解就是,每天母亲做的甜点和天气有关。有天气序列,可以观测得到,甜点序列,是我们想知 阅读全文

posted @ 2017-08-07 12:43 洛珈山下 阅读(1065) 评论(0) 推荐(0)

KNN算法的实现
摘要:KNN算法是机器学习经典十大算法之一,简单易懂。这里给出KNN的实现,由两个版本: 1.机器学习实战上作者的实现版本,我自己又敲了一遍感觉还是蛮有收获的; 2.用自己的理解的一个实现,主要的区别就是效率没有第一个高,因为第一个大量使用矩阵向量的运算,速度比较快,还有就是作者的代码比较简介好看。自己的 阅读全文

posted @ 2017-08-07 09:00 洛珈山下 阅读(523) 评论(0) 推荐(0)

导航