博客园 - xinchen1111
uuid:24b78886-0ed1-41c2-8670-e3f31dcf42c4;id=41613
2019-09-11T03:39:49Z
xinchen1111
https://www.cnblogs.com/xinchen1111/
feed.cnblogs.com
https://www.cnblogs.com/xinchen1111/p/8793570.html
从感知机到 SVM,再到深度学习(三) - xinchen1111
    这篇博文详细分析了前馈神经网络的内容,它对应的函数,优化过程等等。     在 "上一篇" 博文中已经完整讲述了 SVM 的思想和原理。讲到了想用一个高度非线性的曲线作为拟合曲线。比如这个曲线可以是: $$g(x
2018-04-13T00:40:00Z
2018-04-13T00:40:00Z
xinchen1111
https://www.cnblogs.com/xinchen1111/
【摘要】    这篇博文详细分析了前馈神经网络的内容,它对应的函数,优化过程等等。     在 "上一篇" 博文中已经完整讲述了 SVM 的思想和原理。讲到了想用一个高度非线性的曲线作为拟合曲线。比如这个曲线可以是: $$g(x <a href="https://www.cnblogs.com/xinchen1111/p/8793570.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/xinchen1111/p/8804858.html
真正理解拉格朗日乘子法和 KKT 条件 - xinchen1111
    这篇博文中直观上讲解了拉格朗日乘子法和 KKT 条件,对偶问题等内容。     首先从无约束的优化问题讲起,一般就是要使一个表达式取到最小值: $$min \quad f(x)$$   &en
2018-04-12T01:02:00Z
2018-04-12T01:02:00Z
xinchen1111
https://www.cnblogs.com/xinchen1111/
【摘要】    这篇博文中直观上讲解了拉格朗日乘子法和 KKT 条件,对偶问题等内容。     首先从无约束的优化问题讲起,一般就是要使一个表达式取到最小值: $$min \quad f(x)$$   &en <a href="https://www.cnblogs.com/xinchen1111/p/8804858.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/xinchen1111/p/8763448.html
从感知机到 SVM,再到深度学习(二) - xinchen1111
    这篇博文承接上一篇,详细推导了 SVM 算法,包括对偶算法,SMO 优化算法,核函数技巧等等,最后还提到用高度非线性的曲线代替超平面,就是神经网络的方法。     在 "第一篇" 中已经得到了最优间隔分类器的目标
2018-04-09T14:35:00Z
2018-04-09T14:35:00Z
xinchen1111
https://www.cnblogs.com/xinchen1111/
【摘要】    这篇博文承接上一篇,详细推导了 SVM 算法,包括对偶算法,SMO 优化算法,核函数技巧等等,最后还提到用高度非线性的曲线代替超平面,就是神经网络的方法。     在 "第一篇" 中已经得到了最优间隔分类器的目标 <a href="https://www.cnblogs.com/xinchen1111/p/8763448.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/xinchen1111/p/8763213.html
对机器学习的一点理解 - xinchen1111
    机器是什么,机器就是电脑、芯片、代码这些东西。让电脑遵循人的指令,完成一件特定的任务从计算机发明那天开始就在研究了,现在的各种编程语言、数据结构和编程算法等都是在做这个。但是它们只能依赖于程序员输入的确定的代码才能 work,也就是说他们不能“自己学习
2018-04-09T13:49:00Z
2018-04-09T13:49:00Z
xinchen1111
https://www.cnblogs.com/xinchen1111/
【摘要】    机器是什么,机器就是电脑、芯片、代码这些东西。让电脑遵循人的指令,完成一件特定的任务从计算机发明那天开始就在研究了,现在的各种编程语言、数据结构和编程算法等都是在做这个。但是它们只能依赖于程序员输入的确定的代码才能 work,也就是说他们不能“自己学习 <a href="https://www.cnblogs.com/xinchen1111/p/8763213.html" target="_blank">阅读全文</a>
https://www.cnblogs.com/xinchen1111/p/8762186.html
从感知机到 SVM,再到深度学习(一) - xinchen1111
    在 "上篇博客" 中提到,如果想要拟合一些空间中的点,可以用最小二乘法,最小二乘法其实是以样例点和理论值之间的误差最小作为目标。那么换个场景,如果有两类不同的点,而我们不想要拟合这些点,而是想找到一条直线把点区分开来,就像下图一样,那么我们应该怎么做呢
2018-04-09T12:58:00Z
2018-04-09T12:58:00Z
xinchen1111
https://www.cnblogs.com/xinchen1111/
【摘要】    在 "上篇博客" 中提到,如果想要拟合一些空间中的点,可以用最小二乘法,最小二乘法其实是以样例点和理论值之间的误差最小作为目标。那么换个场景,如果有两类不同的点,而我们不想要拟合这些点,而是想找到一条直线把点区分开来,就像下图一样,那么我们应该怎么做呢 <a href="https://www.cnblogs.com/xinchen1111/p/8762186.html" target="_blank">阅读全文</a>