上一页 1 2 3 4 5 6 7 8 ··· 10 下一页
摘要: "1. pyhanlp介绍和简单应用" "2. 观点提取和聚类代码详解" 1. 前言 本文介绍如何在无监督的情况下,对文本进行简单的观点提取和聚类。 2. 观点提取 观点提取是通过依存关系的方式,根据固定的依存结构,从原文本中提取重要的结构,代表整句的主要意思。 我认为比较重要的依存关系结构是"动补 阅读全文
posted @ 2019-01-16 20:35 hyc339408769 阅读(5335) 评论(1) 推荐(2) 编辑
摘要: "1. pyhanlp介绍和简单应用" "2. 观点提取和聚类代码详解" 1. 前言 中文分词≠自然语言处理! 中文分词只是第一步;HanLP从中文分词开始,覆盖词性标注、命名实体识别、句法分析、文本分类等常用任务,提供了丰富的API。 不同于一些简陋的分词类库,HanLP精心优化了内部数据结构和I 阅读全文
posted @ 2019-01-16 20:33 hyc339408769 阅读(9687) 评论(0) 推荐(1) 编辑
摘要: 1. 前言 我们之前有介绍过 "4. EM算法 高斯混合模型GMM详细代码实现" ,在那片博文里面把GMM说涉及到的过程,可能会遇到的问题,基本讲了。今天我们升级下,主要一起解析下EM算法中GMM(搞事混合模型)带惩罚项的详细代码实现。 2. 原理 由于我们的极大似然公式加上了惩罚项,所以整个推算的 阅读全文
posted @ 2019-01-16 20:32 hyc339408769 阅读(2238) 评论(0) 推荐(0) 编辑
摘要: "1. EM算法 数学基础" "2. EM算法 原理详解" "3. EM算法 高斯混合模型GMM" "4. EM算法 GMM代码实现" "5. EM算法 高斯混合模型+Lasso" 1. 前言 前面几篇博文对EM算法和GMM模型进行了介绍,本文我们通过对GMM增加一个惩罚项。 2. 不带惩罚项的GM 阅读全文
posted @ 2019-01-16 08:31 hyc339408769 阅读(3129) 评论(0) 推荐(1) 编辑
摘要: "1. EM算法 数学基础" "2. EM算法 原理详解" "3. EM算法 高斯混合模型GMM" "4. EM算法 高斯混合模型GMM详细代码实现" "5. EM算法 高斯混合模型GMM+Lasso" 1. 前言 EM的前3篇博文分别从数学基础、EM通用算法原理、EM的高斯混合模型的角度介绍了EM 阅读全文
posted @ 2019-01-15 23:37 hyc339408769 阅读(9587) 评论(0) 推荐(1) 编辑
摘要: "1. K Means原理解析" "2. K Means的优化" "3. sklearn的K Means的使用" "4. K Means和K Means++实现" 1. 前言 前面3篇K Means的博文从原理、优化、使用几个方面详细的介绍了K Means算法,本文用python语言,详细的为读者实 阅读全文
posted @ 2019-01-15 19:57 hyc339408769 阅读(5570) 评论(0) 推荐(0) 编辑
摘要: "1. K Means原理解析" "2. K Means的优化" "3. sklearn的K Means的使用" "4. K Means和K Means++实现" 1. 前言 在机器学习中有几个重要的python学习包。 1. sklearn:sklearn里面包含了各种机器学习的算法结构 2. n 阅读全文
posted @ 2019-01-06 15:34 hyc339408769 阅读(14341) 评论(0) 推荐(0) 编辑
摘要: "1. K Means原理解析" "2. K Means的优化" "3. sklearn的K Means的使用" "4. K Means和K Means++实现" 1. 前言 上一篇博文 "K Means原理解析" 简单清晰的阐述了K Means的原理和过程。但是还有一些在使用K Means过程中会 阅读全文
posted @ 2019-01-05 22:03 hyc339408769 阅读(4106) 评论(0) 推荐(1) 编辑
摘要: "1. K Means原理解析" "2. K Means的优化" "3. sklearn的K Means的使用" "4. K Means和K Means++实现" 1. 前言 我们在一开始的时候应该就说过,机器学习按照有无标签可以分为“监督学习”和“非监督学习”。 监督学习里面的代表算法就是:SVM 阅读全文
posted @ 2019-01-05 12:45 hyc339408769 阅读(5785) 评论(0) 推荐(0) 编辑
摘要: 1. 前言 2018年最火的论文要属google的BERT,不过今天我们不介绍BERT的模型,而是要介绍BERT中的一个小模块WordPiece。 2. WordPiece原理 现在基本性能好一些的NLP模型,例如OpenAI GPT,google的BERT,在数据预处理的时候都会有WordPiec 阅读全文
posted @ 2019-01-04 23:48 hyc339408769 阅读(48640) 评论(8) 推荐(9) 编辑
上一页 1 2 3 4 5 6 7 8 ··· 10 下一页