上一页 1 ··· 59 60 61 62 63 64 65 66 67 ··· 74 下一页
摘要: 看一下李航的统计学习是如何对广义拉格朗日函数进行描述的: 原始问题: min f(x) s.t. c(x)>=0 引入拉格朗日乘子λ。 min f(x)+λc(x)+λd(x) min max f(x)+λc(x)+λd(x) max的作用是如果x不满足d(x)或c(x)的约束则λ*c(x)变为正无 阅读全文
posted @ 2021-07-30 15:10 祥瑞哈哈哈 阅读(1196) 评论(0) 推荐(0)
摘要: 原始问题: min f(x) s.t. c(x)>=0 引入拉格朗日乘子λ。 min f(x)+λc(x) min max f(x)+λc(x) max的作用是如果xc(x)的约束则λ*c(x)变为正无穷,满足约束条件λ*c(x)变为0。 最后通过min选择x使目标函数标为最小值。 λ起到选择作用。 阅读全文
posted @ 2021-07-30 11:26 祥瑞哈哈哈 阅读(1070) 评论(0) 推荐(0)
摘要: 拉格朗日函数其实是将有条件极值求法转化为无条件极值求法,再用隐函数对公式进行替换得出拉格朗日函数。 求z=f(x,y)的极值在条件的约束下。 将y用x表示,对z进行x的求导。 利用隐函数求出 对进行替换。 得出。 由此 阅读全文
posted @ 2021-07-29 16:55 祥瑞哈哈哈 阅读(805) 评论(0) 推荐(0)
摘要: 感知机的损失函数为误分类点,将分类点的函数值与标签乘积取反。这是损失函数,只要为0没有误分类点,即可完成任务。 支持向量机对数据要求间隔最大化。 阅读全文
posted @ 2021-07-29 11:00 祥瑞哈哈哈 阅读(249) 评论(0) 推荐(0)
摘要: 感知机原理:利用超平面对数据进行二分类。 损失函数:y*(wx+b)。大于0则判断成功否则判断失败。 通过梯度下降法优化损失函数。 机器学习就是分析数据,找到一种能解决你需求的函数关系。 目标感知机:x1+2*x2+3*x3+4*x4+5 代码部分: 引入numpy库: import numpy a 阅读全文
posted @ 2021-07-28 22:52 祥瑞哈哈哈 阅读(153) 评论(0) 推荐(0)
摘要: 梯度下降法的精髓是:两向量方向相反内积后最小。 梯度下降法是一种优化方法,通过不断的迭代使用梯度下降法来达到优化损失函数的目的。损失函数是表示当前函数与理想函数的差距,梯度下降法就是通过损失函数来优化参数达到函数更加准确的目的。梯度下降法通过迭代来降低损失函数。 dz表示的是损失函数的变化量,可以将 阅读全文
posted @ 2021-07-28 17:50 祥瑞哈哈哈 阅读(251) 评论(0) 推荐(0)
摘要: 返回和之前相同的张量,只是没有梯度求导。 阅读全文
posted @ 2021-07-28 12:26 祥瑞哈哈哈 阅读(112) 评论(0) 推荐(0)
摘要: 它们俩个的出现解决了,向同一个函数传入不同参数情况。传入数组数量不同。 阅读全文
posted @ 2021-07-28 12:04 祥瑞哈哈哈 阅读(90) 评论(0) 推荐(0)
摘要: torch.cat 用于连接多个张量 当dim=0时张量按竖直方向连接,dim=1时按水平方向连接 阅读全文
posted @ 2021-07-28 11:50 祥瑞哈哈哈 阅读(131) 评论(0) 推荐(0)
摘要: slice函数返回一列数。 返回的是数组,不包括end值。 阅读全文
posted @ 2021-07-28 11:33 祥瑞哈哈哈 阅读(83) 评论(0) 推荐(0)
上一页 1 ··· 59 60 61 62 63 64 65 66 67 ··· 74 下一页