会员
众包
新闻
博问
闪存
赞助商
HarmonyOS
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
靡不有初,鲜克有终
博客园
首页
新随笔
联系
管理
订阅
上一页
1
···
17
18
19
20
21
22
23
24
25
···
31
下一页
2020年3月6日
项目开发常识:CS架构和BS架构、API与SDK 、DOM结构
摘要: 一、CS架构和BS架构 (1)CS架构 C = Client, S = Server。C/S 架构即“客户端-服务器” 架构。这里的“客户端”可以是有 GUI (图形用户界面)的定制软件,也可以是浏览器,甚至可以是通过 SSH 访问服务器的命令行脚本。只要是客户端通过访问服务器调取计算或者存储资源的
阅读全文
posted @ 2020-03-06 10:28 泰初
阅读(3755)
评论(0)
推荐(0)
2020年2月16日
《机器学习(周志华)》笔记--贝叶斯分类器(3)--贝叶斯网:贝叶斯网定义、贝叶斯网三种基本连接方式(同父结构、V型结构、顺序结构)、道德图、贝叶斯网络推理
摘要: 三、贝叶斯网 1、贝叶斯网定义 贝叶斯网也称信念网,借助有向无环图(DAG)来刻画属性之间的依赖关系,使用条件概率表(CPT)来描述属性的联合概率分布。 贝叶斯网有效地表达了属性间地条件独立性。 举例: 给定父结点集,贝叶斯网假设每个属性与其非后裔属性独立,则属性间的联合概率分布定义为: 2、贝叶斯
阅读全文
posted @ 2020-02-16 18:22 泰初
阅读(2472)
评论(0)
推荐(1)
《机器学习(周志华)》笔记--贝叶斯分类器(2)--朴素贝叶斯分类器:先验概率、后验概率、条件概率、朴素贝叶斯表达式、拉普拉斯平滑
摘要: 二、朴素贝叶斯分类器 1、相关三概率 给定 N 个类别,设随机样本向量x={x1,x2,…,xd} ,相关的三个概率: (1)先验概率P(c) :根据以前的知识和经验得出的c类样本出现的概率,与现在无关。 (2)后验概率P(c|x) :相对于先验概率而言,表示x 属于c类的概率。 (3)条件概率P(
阅读全文
posted @ 2020-02-16 17:39 泰初
阅读(1969)
评论(0)
推荐(0)
《机器学习(周志华)》笔记--贝叶斯分类器(1)--贝叶斯决策:条件概率、联合概率、全概率、贝叶斯公式
摘要: 一、贝叶斯决策 贝叶斯决策论是概率框架下实施决策的基本方法,对分类任务来说,在所有相关概率已知的理想情形下,贝叶斯考虑如何基于这些概率和误判损失来选择最优的类别标记。 朴素贝叶斯分类算法是基于贝叶斯定理与特征条件独立假设的分类方法。 1、条件概率 概率指的是某一事件A发生的可能性,表示为P(A)。
阅读全文
posted @ 2020-02-16 17:15 泰初
阅读(1206)
评论(0)
推荐(0)
《机器学习(周志华)》笔记--支持向量机(5)--SVM算法实验代码记录:线性SVM、非线性SVM
摘要: 五、SVM算法实验代码 1、线性SVM import numpy as np from sklearn.datasets import load_iris import matplotlib.pyplot as plt data = load_iris() x = data.data y = dat
阅读全文
posted @ 2020-02-16 16:21 泰初
阅读(698)
评论(0)
推荐(0)
《机器学习(周志华)》笔记--支持向量机(4)--序列最小优化算法:smo算法基本思想、SMO算法目标函数的优化、SMO算法代码实现
摘要: 四、序列最小优化算法(smo算法) 1、smo算法基本思想 支持向量机的学习问题可以形式化为求解凸二次规划问题。 这样的凸二次规划问题具有全局最优解, 并且有许多最优化算法可以用于这一问题的求解。 但是当训练样本容量很大时, 这些算法往往变得非常低效, 以致无法使用。 所以,如何高效地实现支持向量机
阅读全文
posted @ 2020-02-16 16:10 泰初
阅读(1842)
评论(0)
推荐(0)
《机器学习(周志华)》笔记--支持向量机(3)--核函数:核技巧、核函数计算过程、特殊映射函数
摘要: 三、核函数 1、核技巧 若不存在一个能正确划分两类样本的超平面, 怎么办 ? 数学上可以证明,如果原始空间是有限维,即属性数有限,则一定存在一个高维特征空间使样本可分。将样本从原始空间映射到一个更高维的特征空间 , 使样本在这个特征空间内线性可分。 我们的数据集有时候是非线性可分的情况,如下图: 对
阅读全文
posted @ 2020-02-16 11:58 泰初
阅读(2096)
评论(0)
推荐(0)
《机器学习(周志华)》笔记--支持向量机(2)--对偶问题:优化问题的类型、对偶问题、解的稀疏性、硬间隔与软间隔
摘要: 二、对偶问题 1、优化问题的类型 (1)无约束优化问题: 求解方法:求取函数f(x)的导数,然后令其为零,可以求得候选最优值,再在这些候选值中验证;如果是凸函数,可以保证是最优解。 (2)有等式约束的优化问题: 即把等式约束hi(x)用一个系数与f(x)写为一个式子,称为拉格朗日函数,而系数称为拉格
阅读全文
posted @ 2020-02-16 11:39 泰初
阅读(3772)
评论(0)
推荐(1)
2020年2月15日
《机器学习(周志华)》笔记--支持向量机(1)--间隔与支持向量:线性二分类问题、支持向量机基本思想、间隔与支持向量、间隔与支持向量数学推导、支持向量机基本型
摘要: 支持向量机 (Support Vector Machine) 是由Vapnik等人于1995年提出来的,之后随着统计理论的发展,支持向量机 SVM 也逐渐受到了各领域研究者的关注,在很短的时间就得到了很广泛的应用。支持向量机是被公认的比较优秀的分类模型。同时,在支持向量机的发展过程中,其理论方面的研
阅读全文
posted @ 2020-02-15 19:57 泰初
阅读(2062)
评论(0)
推荐(0)
《机器学习(周志华)》笔记--神经网络(6)--其他常见神经网络:深度学习模型、深度学习的兴起(历史)、卷积神经网络(CNN)、局部连接、权值共享、卷积操作(convolution)、池化操作(pooling)、随机失活(dropout)、Lenet-5
摘要: 四、其他常见神经网络 1、深度学习模型 感知机只包括输入层和输出层,只能处理线性任务,为了处理非线性任务,在输入和输出之间加入了隐层,隐层的目的是对数据进行加工处理传递给输出层。 为了解决更为复杂的问题,我们需要提升模型的学习能力,这时要增加模型的复杂度,有两种策略: (1)一种是隐层保持不变,增加
阅读全文
posted @ 2020-02-15 16:09 泰初
阅读(1194)
评论(0)
推荐(0)
上一页
1
···
17
18
19
20
21
22
23
24
25
···
31
下一页
公告