上一页 1 ··· 3 4 5 6 7 8 9 10 11 ··· 18 下一页
  2018年7月21日
摘要: #########简单######### 共25道: 1. 两数之和 给定一个整数数组和一个目标值,找出数组中和为目标值的两个数。 你可以假设每个输入只对应一种答案,且同样的元素不能被重复利用。 示例: 2. 给定一个 32 位有符号整数,将整数中的数字进行反转。 示例 1: 示例 2: 示例 3: 阅读全文
posted @ 2018-07-21 15:29 Google-boy 阅读(1064) 评论(0) 推荐(0)
  2018年7月19日
摘要: d 阅读全文
posted @ 2018-07-19 20:00 Google-boy 阅读(176) 评论(0) 推荐(0)
摘要: 机器学习分为三个阶段: 第一阶段:学习模型。采用学习算法,通过对训练集进行归纳学习得到分类模型; 第二阶段:测试模型。将已经学习得到的分类模型用于测试集,对测试集中未知类别的实例进行分类。 第三阶段:性能评估。显然,通过测试集产生的分类未必是最佳的,这就导致对测试集的分类可能产生错误。而人们希望尽量 阅读全文
posted @ 2018-07-19 16:42 Google-boy 阅读(11377) 评论(0) 推荐(1)
  2018年7月15日
摘要: 关键词:先验概率;条件概率和后验概率;特征条件独立;贝叶斯公式;朴素贝叶斯;极大似然估计;后验概率最大化; 期望风险最小化;平滑方法 朴素贝叶斯分类的定义如下: 1. 设 x = a1,a2, ...,am为一个待分类项,而每个a是x的一个特征属性。 2.待分类项的类别集合C={y1,y2,..., 阅读全文
posted @ 2018-07-15 16:47 Google-boy 阅读(547) 评论(0) 推荐(0)
  2018年7月13日
摘要: 阅读全文
posted @ 2018-07-13 22:32 Google-boy 阅读(178) 评论(0) 推荐(0)
  2018年7月10日
摘要: word2vec:低维向量的直接学习 接下来,我们来看下Deep Learning是如何从原始的语料库中直接学习到低维词向量的表达。这也是我们学习的第一个Deep NLP模型——word2vec模型。 Assignment CBOW && skip-gram通俗理解 负采样: 阅读全文
posted @ 2018-07-10 22:35 Google-boy 阅读(233) 评论(0) 推荐(0)
摘要: 问题描述: 在生活中经常遇到这样的问题,某单位需完成n项任务,恰好有n个人可承担这些任务。由于每人的专长不同,各人完成任务不同(或所费时间),效率也不同。于是产生应指派哪个人去完成哪项任务,使完成n项任务的总效率最高(或所需总时间最小)。这类问题称为指派问题或分派问题。 指派问题也是0-1规划,线性 阅读全文
posted @ 2018-07-10 09:52 Google-boy 阅读(9528) 评论(0) 推荐(0)
  2018年7月9日
摘要: 在学习NLP之前还是要打好基础,第二部分就是神经网络基础。 知识点总结: 1.神经网络概要: 2. 神经网络表示: 第0层为输入层(input layer)、隐藏层(hidden layer)、输出层(output layer)组成。 3. 神经网络的输出计算: 4.三种常见激活函数: sigmoi 阅读全文
posted @ 2018-07-09 21:42 Google-boy 阅读(262) 评论(0) 推荐(0)
  2018年7月8日
摘要: softmax 函数,被称为 归一化指数函数,是sigmoid函数的推广。 它将向量等比压缩到[0, 1]之间,所有元素和为1. 图解: Example: softmax([1, 2, 3, 4, 1, 2, 3]) = [0.024, 0.064, 0.175, 0.475, 0.024, 0.0 阅读全文
posted @ 2018-07-08 20:10 Google-boy 阅读(346) 评论(0) 推荐(0)
  2018年6月25日
摘要: The world is betting on how to win the football game; But I'm betting on how to win your heart; Maybe I can't understand the team's lineup; But I can 阅读全文
posted @ 2018-06-25 10:47 Google-boy 阅读(154) 评论(0) 推荐(0)
上一页 1 ··· 3 4 5 6 7 8 9 10 11 ··· 18 下一页