摘要: PCA算法 PCA算法 原文来自主成分分析(PCA)原理总结 - 刘建平Pinard - 博客园,文章对PCA算法做了详细介绍,总结如下。 1.PCA的思想 PCA顾名思义,就是找出数据里最主要的方面,用数据里最主要的方面来代替原始数据。具体的,假如我们的数据集是n维的,共有m个数据(x(1),x(2),... 阅读全文
posted @ 2022-04-19 10:00 小菜鸡学智能 阅读(136) 评论(0) 推荐(0)
摘要: 数字乡村战略 什么是数字乡村? 数字乡村行业发展现状及趋势研究 如何建设数字乡村? 关于国家数字乡村试点地区名单的公示 浙江大学数字乡村研究院去年落户德清县三林村 国内首个数字乡村的研究院 两个典型案例 阅读全文
posted @ 2022-02-16 09:10 小菜鸡学智能 阅读(30) 评论(0) 推荐(0)
摘要: 一、凸二次规划(convex quadratic programming)问题 凸函数:这里的凸函数与高数不一样:国内分为下凸函数(就是高数中的凹函数)上凸函数 f(x)=x直线也是凸函数,但不严格 严格的来说应该是f[(x1+x2)/2]<[f(x1)+f(x2)]/2例如f(x)=x2 仿射函数 阅读全文
posted @ 2022-01-24 11:37 小菜鸡学智能 阅读(101) 评论(0) 推荐(0)
摘要: 一、神经网络--反向传播详细推导过程中的公式推导 其中,aL和y为特征维度为n_out的向量,而||S||2为S的L2范数。 损失函数有了,现在我们开始用梯度下降法迭代求解每一层的W,b 首先是输出层第L层。注意到输出层的W,b满足下式: 求导用到的公式有: 1:标量对多个向量的链式求导法则:x→y 阅读全文
posted @ 2022-01-20 12:51 小菜鸡学智能 阅读(204) 评论(0) 推荐(0)
摘要: 输出激活函数与损失函数的理论知识 前文介绍 在深度学习中,输入值和矩阵的运算是线性的,而多个线性函数的组合仍然是线性函数,对于多个隐藏层的神经网络,如果每一层都是线性函数,那么这些层在做的就只是进行线性计算,最终效果和一个隐藏层相当!那这样的模型的表达能力就非常有限 。 实际上大多数情况下输入数据和输出数据的关系都是非线性的。所以我 阅读全文
posted @ 2022-01-18 12:13 小菜鸡学智能 阅读(225) 评论(0) 推荐(0)
摘要: DDA(深度域自适应):DDA 基于为 DA 设计的深度学习架构 1、解决域转移的机制 2、一步与多步适应方法 阅读全文
posted @ 2022-01-07 12:30 小菜鸡学智能 阅读(146) 评论(0) 推荐(0)
摘要: 某些函数与知识点的复习 损失函数与风险函数 监督学习问题是在假设空间F中选取模型f作为决策函数,对于给定的输入X,由f(X)给出相应的输出Y,这个输出的预测值f(X)与真实值Y可能一致也可能不一致,用一个损失函数(loss function)或代价函数(cost function)来度量预测错误的程度.损失函数是f(X)和 阅读全文
posted @ 2022-01-07 11:51 小菜鸡学智能 阅读(38) 评论(0) 推荐(0)
摘要: 模型、假设函数、损失函数、决策函数 模型、假设函数、损失函数、决策函数 阅读全文
posted @ 2021-12-24 14:37 小菜鸡学智能 阅读(173) 评论(0) 推荐(0)