摘要: 14.降维 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 参考资料 斯坦福大学 2014 机器学习教程中文笔记 by 黄海广 14.3主成分分析原理Proncipal Component Analysis Problem Formulation 主成分分析(PCA)是最常见的降维算法 阅读全文
posted @ 2018-09-09 17:35 WUST许志伟 阅读(597) 评论(0) 推荐(0)
摘要: 14.降维 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 参考资料 斯坦福大学 2014 机器学习教程中文笔记 by 黄海广 14.1动机一:数据压缩 降维 也是一种无监督学习的方法,降维并不需要使用数据的标签。 降维 的其中一个目的是 数据压缩,数据压缩不仅能够压缩数据,使用较少的计 阅读全文
posted @ 2018-09-09 15:11 WUST许志伟 阅读(716) 评论(0) 推荐(0)
摘要: 13.聚类 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 13.1无监督学习简介 从监督学习到无监督学习 在一个典型的监督学习中,我们有一个有标签的训练集,我们的目标是找到能够区分正样本和负样本的决策边界,在监督学习中,我们有一系列标签,我们需要据此拟合一个假设函数: 与此不同的是,在 阅读全文
posted @ 2018-09-08 21:17 WUST许志伟 阅读(1358) 评论(0) 推荐(0)
摘要: 12.支持向量机 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 12.6SVM总结 推荐使用成熟的软件包 用以解决 SVM 最优化问题的软件很复杂,且已经有研究者做了很多年数值优化。因此强烈建议使用高优化软件库中的一个,而不是尝试自己落实一些框架。有许多好的软件库,NG用得最多的两个是 阅读全文
posted @ 2018-09-08 10:45 WUST许志伟 阅读(420) 评论(0) 推荐(0)
摘要: 12.支持向量机 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 参考资料 斯坦福大学 2014 机器学习教程中文笔记 by 黄海广 12.5 SVM参数细节 标记点选取 标记点(landmark)如图所示为$l^{(1)},l^{(2)},l^{(3)}$,设核函数为 高斯函数 ,其中 阅读全文
posted @ 2018-09-07 21:01 WUST许志伟 阅读(1111) 评论(0) 推荐(0)
摘要: 12.支持向量机 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 12.4 核函数与标记点- Kernels and landmarks 问题引入 如果你有以下的训练集,然后想去拟合其能够分开正负样本的非线性判别边界。 一种办法是构造一个复杂多项式特征的集合: $$h_{\theta}( 阅读全文
posted @ 2018-09-06 22:02 WUST许志伟 阅读(815) 评论(0) 推荐(0)
摘要: 12.支持向量机 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 参考资料 斯坦福大学 2014 机器学习教程中文笔记 by 黄海广 12.3 大间距分类背后的数学原理- Mathematics Behind Large Margin classification 向量内积 假设有两个向 阅读全文
posted @ 2018-09-06 18:48 WUST许志伟 阅读(810) 评论(0) 推荐(0)
摘要: 12.支持向量机 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 参考资料 斯坦福大学 2014 机器学习教程中文笔记 by 黄海广 12.2 大间距的直观理解- Large Margin Intuition 人们有时将支持向量机看作是大间距分类器。在这一部分,我将介绍其中的含义,这有助 阅读全文
posted @ 2018-09-05 17:07 WUST许志伟 阅读(2546) 评论(0) 推荐(0)
摘要: 12.支持向量机 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 参考资料 斯坦福大学 2014 机器学习教程中文笔记 by 黄海广 12.1 SVM损失函数 从逻辑回归到支持向量机 为了描述支持向量机,事实上,我将会从逻辑回归开始展示我们如何一点一点修改来得到本质上的支持向量机。 逻辑 阅读全文
posted @ 2018-09-05 10:58 WUST许志伟 阅读(2583) 评论(0) 推荐(0)
摘要: 11. 机器学习系统的设计 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 参考资料 斯坦福大学 2014 机器学习教程中文笔记 by 黄海广 11.5 数据量对机器学习的影响 Data For Machine Learning 问题引入 很多很多年前,我认识的两位研究人员 Michel 阅读全文
posted @ 2018-09-04 22:42 WUST许志伟 阅读(1175) 评论(0) 推荐(0)
摘要: 11. 机器学习系统的设计 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 参考资料 斯坦福大学 2014 机器学习教程中文笔记 by 黄海广 11.3 偏斜类的误差度量 Error Metrics for Skewed Classes 偏斜类 Skewed Classes 类偏斜情况表 阅读全文
posted @ 2018-09-04 20:31 WUST许志伟 阅读(679) 评论(0) 推荐(0)
摘要: 5.3序列模型与注意力机制 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 3.9语音辨识 Speech recognition 问题描述 对于音频片段(audio clip)x ,y生成文本(transcript),人听见的或者麦克风捕捉的都是空气中细微的气压变化,语音识别系统能够根据 阅读全文
posted @ 2018-09-03 21:33 WUST许志伟 阅读(749) 评论(0) 推荐(0)
摘要: 5.3序列模型与注意力机制 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 3.7注意力模型直观理解Attention model intuition 长序列问题 The problem of long sequences 对于给定的长序列的法语句子,在下图中的网络中,绿色的编码器读取整 阅读全文
posted @ 2018-09-03 16:45 WUST许志伟 阅读(598) 评论(0) 推荐(0)
摘要: 5.3序列模型与注意力机制 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 3.6Bleu得分 在机器翻译中往往对应有多种翻译,而且同样好,此时怎样评估一个机器翻译系统是一个难题。 常见的解决方法是通过BLEU得分来进行判断 评价机器翻译Evaluating machine transl 阅读全文
posted @ 2018-09-01 11:20 WUST许志伟 阅读(590) 评论(0) 推荐(0)
摘要: 5.3序列模型与注意力机制 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 3.3 集束搜索Beam Search 对于机器翻译来说,给定输入的句子,会返回一个随机的英语翻译结果,但是你想要一个最好的英语翻译结果。对于语音识别也是一样,给定一个输入的语音片段,你不会想要一个随机的文本翻译 阅读全文
posted @ 2018-08-31 15:22 WUST许志伟 阅读(1202) 评论(0) 推荐(0)
摘要: 5.3序列模型与注意力机制 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 3.2选择最可能的句子 Picking the most likely sentence condition language model 有条件的语言模型 对于 语言模型 ,能够估计出这些单词是一个句子的可能性 阅读全文
posted @ 2018-08-30 20:27 WUST许志伟 阅读(448) 评论(0) 推荐(0)
摘要: 5.3序列模型与注意力机制 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 3.1基础模型 [1] Sutskever I, Vinyals O, Le Q V. Sequence to Sequence Learning with Neural Networks[J]. 2014, 4 阅读全文
posted @ 2018-08-30 15:41 WUST许志伟 阅读(505) 评论(0) 推荐(0)
摘要: 5.2自然语言处理 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 2.10词嵌入除偏 Debiasing word embeddings Bolukbasi T, Chang K W, Zou J, et al. Man is to Computer Programmer as Wom 阅读全文
posted @ 2018-08-30 11:00 WUST许志伟 阅读(694) 评论(0) 推荐(0)
摘要: 5.2自然语言处理 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 2.9 Sentiment classification 情感分类 情感分类任务简单来说是看一段文本,然后分辨这个人是否喜欢或不喜欢他们正在谈论的这段文本。 情感分类 一个最大的挑战是可能标记的训练集没有那么多,但是有了 阅读全文
posted @ 2018-08-30 09:38 WUST许志伟 阅读(610) 评论(0) 推荐(0)
摘要: 5.2自然语言处理 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 2.8 GloVe word vectors GloVe词向量 Pennington J, Socher R, Manning C. Glove: Global Vectors for Word Representati 阅读全文
posted @ 2018-08-29 21:27 WUST许志伟 阅读(836) 评论(0) 推荐(0)
摘要: 5.2自然语言处理 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 2.7 负采样 Negative sampling Mikolov T, Sutskever I, Chen K, et al. Distributed representations of words and phra 阅读全文
posted @ 2018-08-29 18:56 WUST许志伟 阅读(3399) 评论(2) 推荐(0)
摘要: 5.2自然语言处理 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 2.6 Word2Vec Word2Vec相对于原先介绍的词嵌入的方法来说更加的简单快速。 Mikolov T, Chen K, Corrado G, et al. Efficient Estimation of Wor 阅读全文
posted @ 2018-08-29 14:17 WUST许志伟 阅读(890) 评论(0) 推荐(0)
摘要: 5.2自然语言处理 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 2.3词嵌入的特性 properties of word embedding Mikolov T, Yih W T, Zweig G. Linguistic regularities in continuous spac 阅读全文
posted @ 2018-08-28 20:05 WUST许志伟 阅读(1286) 评论(0) 推荐(0)
摘要: 5.2自然语言处理 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 2.1词汇表征 Word representation 原先都是使用词汇表来表示词汇,并且使用1-hot编码的方式来表示词汇表中的词汇。 这种表示方法最大的缺点是 它把每个词孤立起来,这样使得算法对相关词的泛化能力不强 阅读全文
posted @ 2018-08-28 11:16 WUST许志伟 阅读(757) 评论(0) 推荐(0)
摘要: 5.1循环序列模型 觉得有用的话,欢迎一起讨论相互学习~ 吴恩达老师课程原地址 1.10长短期记忆网络(Long short term memory)LSTM Hochreiter S, Schmidhuber J. Long Short-Term Memory[J]. Neural Computa 阅读全文
posted @ 2018-08-27 20:17 WUST许志伟 阅读(520) 评论(0) 推荐(0)