08 2018 档案

摘要:为了清楚方便,把两者分开。其实如果不需要分工协作的话,单单Git就可以满足个人工作需要,然后在GitHub上学习开源的项目。当然有项目需要多人分工,需要两者结合使用。 Git 下载客户端,安装 在本地某盘新建文件夹,文件夹内,右键“Git ”Bash Here",出现一个终端窗口。输入"git in 阅读全文
posted @ 2018-08-29 19:08 流影心 阅读(172) 评论(0) 推荐(0)
摘要:一 逻辑回归 线性回归虽然简单,却有丰富的变化。其形式如下(为书写方便,偏置写进权重向量):$$y=\mathbf{w^Tx}$$考虑单调可微函数$g$,令$g(y)=\mathbf{w^Tx}$,在形式上仍然是线性回归,但实质上是在求取输入空间到输出空间的非线性函数映射,其中$y=g^{ 1}(\ 阅读全文
posted @ 2018-08-25 15:52 流影心 阅读(793) 评论(0) 推荐(0)
摘要:一 线性模型 给定由n个属性描述的 列向量 $f(\mathbf{x})={(x^{(1)};x^{(2)};...;x^{(n)})}$,其中 $x^{(j)}$是$\textbf{x}$在第$j$个属性的取值。线性模型即为通过对属性进行线性组合的函数,即 $$f(\mathbf{x})=w_0+ 阅读全文
posted @ 2018-08-24 18:31 流影心 阅读(367) 评论(0) 推荐(0)
摘要:一 高斯朴素贝叶斯分类器代码实现 网上搜索不调用sklearn实现的朴素贝叶斯分类器基本很少,即使有也是结合文本分类的多项式或伯努利类型,因此自己写了一遍能直接封装的高斯类型NB分类器,当然与真正的源码相比少了很多属性和方法,有兴趣的可以自己添加。代码如下(有详细注释): 对于手动实现的高斯型NB分 阅读全文
posted @ 2018-08-24 17:54 流影心 阅读(1794) 评论(0) 推荐(0)
摘要:一 理论基础 对于分类任务来说,贝叶斯决策论在所有相关概率已知的理想情况下,考虑如何基于这些概率和误判损失来选择最优的类别标记。下面推导其基本原理,$X$为输入空间上的随机向量,$Y$为输出空间上的随机变量,选择0 1损失函数,:$$\mathit{L}(Y,f(X))=\left\{\begin{ 阅读全文
posted @ 2018-08-23 19:46 流影心 阅读(1514) 评论(0) 推荐(2)
摘要:一 利用KNN进行对象匹配 某个在线约会网站对于注册用户推荐不同的对象,某个用户把他们分为不喜欢的人,喜欢的人,非常喜欢的人。现在希望通过之前一段时间此用户划分的对象数据,进行分析。然后自动判别新的对象是否为该用户所喜欢。 收集数据。关于此用户的数据存放在某个文本文件中。 准备数据。收集的数据主要包 阅读全文
posted @ 2018-08-21 20:39 流影心 阅读(377) 评论(0) 推荐(0)
摘要:一 理论基础 $k$近邻法是一种基本地分类与回归算法,属于判别模型。没有学习策略,不具备显式学习过程。本文主要讨论分类问题。 原理:给定一个训练数据集,对于新的输入实例,在训练数据集中找到与该实例最邻近的$k$个点,这$k$个点的多数属于某个类,就把输入实例归为这个类。 三个基本要素:$k$值得选择 阅读全文
posted @ 2018-08-21 18:45 流影心 阅读(793) 评论(0) 推荐(0)