svm算法理解

实现参考:
https://zhuanlan.zhihu.com/p/350535962

算法

svm做二元分类,就是样本只能分为10,算是样本的标签
然后是求支持向量,st.到超平面距离最大。
svm

by:https://www.cnblogs.com/mantch/p/10165425.html

实现:

  1. Svm的决策函数从训练集中确定

  2. svm不同核函数效果不同(线性核函数、多项式核函数、高斯核函数等),怎么各不同?
      线性可分和线性不可分什么关系,为啥线性不可分要用高斯核怎么判断呢,细节查阅凸包和样本集线性可分指可以使用一个线性函数分开样本,二维直线,三维平面,即Wtx+b = 0;

  3. 使用高斯核函数建立疲劳分类模型,输入为样本特征,输出二元变量01,0代表非疲劳,1代表疲劳。

学习:

高斯核跑完有如下几个问题

  1. 算术表达式的实现,高斯核那里为什么做的是内积求2范数
  2. 模型训练集,要求疲劳的样本标记提前知晓(所以才说要用疲劳量表),到这里终于区分了聚类和分类的典型区别,聚类不需要知道样本的差异
  3. 明明算法结构没有变,为什么每次运行识别的准确度会变
  4. 高斯核中sigma的最开始取值范围是怎么找到的
posted @ 2022-07-01 10:09  cccjjh  阅读(52)  评论(0)    收藏  举报