摘要: 需要利用手动特征工程从原始数据的领域知识建立特征(Stage1),然后再部署相关的机器学习算法的都不是特征学习(Stage2),像SVM、决策树、K邻近算法、随机森林都不是,他们的定位应该是在Stage2部分 特征学习可以被分为两类:监督式特征学习(Supervised Representation 阅读全文
posted @ 2021-11-25 17:03 felix-qin 阅读(133) 评论(0) 推荐(0) 编辑
摘要: 不同数据集下使用微调: 数据集1-数据量少,但数据相似度非常高-在这种情况下,我们所做的只是修改最后几层或最终的softmax图层的输出类别。 数据集2-数据量少,数据相似度低-在这种情况下,我们可以冻结预训练模型的初始层(比如k层),并再次训练剩余的(n-k)层。由于新数据集的相似度较低,因此根据 阅读全文
posted @ 2021-11-25 16:58 felix-qin 阅读(278) 评论(0) 推荐(0) 编辑
摘要: A、EM是一种迭代算法,用于含有隐变量的概率参数模型的最大似然估计或极大后验概率估计。最大优点是简单和稳定,但与梯度下降一样,容易陷入局部最优。 B、SVM对缺失数据敏感,所以噪声鲁棒性不是很好。噪声鲁棒性好要数神经网络。 C、过拟合往往是因为训练数据太少而导致。 D、训练数据越多,拟合度越好,训练 阅读全文
posted @ 2021-11-25 16:57 felix-qin 阅读(48) 评论(0) 推荐(0) 编辑
摘要: 特征提取算法 特征提取算法分为特征选择和特征抽取两大类 特征选择 常采用特征选择方法。常见的六种特征选择方法: DF(Document Frequency) 文档频率DF:统计特征词出现的文档数量,用来衡量某个特征词的重要性 MI(Mutual Information) 互信息法互信息法用于衡量特征 阅读全文
posted @ 2021-11-25 16:54 felix-qin 阅读(70) 评论(0) 推荐(0) 编辑