机器学习基础-线性回归,逻辑回归,SVM

回归

给定数据,回归就是用一个方程尽可能地拟合数据点的分布;

线性回归

假设数据中 \(y\)\(x\) 呈线性关系;
给定,线性回归就是要找一条线/面,并且让这条直线尽可能地拟合数据点的分布;

二元线性回归:$ \hat{y}=ax_1+bx_2+c $ 去拟合数据
解法:最小二乘;$ loss= \sum{(y_i-\hat{y_i})^2}$

逻辑回归

现在有个二分类任务;且线性可分
如何用线性回归去解决分类问题? 用 sigmoid 函数!

\[P(y=1|x)= sigmoid(ax_1+bx_2+c) \\ sigmoid(x)=\frac{1}{1+e^{-x}} \]

损失函数:交叉熵

\[loss=-\sum{y_ilogP(y=1|x)+(1-y_i)logP(y=0|x)} \]

当决策面非线性:可以用非线性的函数替换 (\(x^2, x^3, x_1*x_2\))

当任务是多分类:可以用多个逻辑回归;每个模型负责分类一个类别和其他类别

SVM

posted @ 2024-03-06 12:53  shiiiilong  阅读(36)  评论(0)    收藏  举报