上一页 1 2 3 4 5 6 ··· 39 下一页
摘要: 为了解决基于现有多样性度量的学习复杂性较高的问题,本文提出了一种新的数据级多样性度量 IED。它能够直接基于训练数据集度量多样性,而不需要训练分类器,同时本文也设计了两种基于最优实例配对和贪婪实例配对的 IED 计算方法。在此基础上,本文设计了一种不平衡集成学习模型 P-EUSBagging,它使用基于种群的增量学习(PBIL)来生成子数据集,再用这些数据集用于训练具有最大数据级多样性的基分类器。P-EUSBagging 采用 Bagging 来集成,并设计了一种新的权重自适应投票策略,奖励给出正确预测的基本分类器。实验使用 44 个不平衡数据集,实验结果表明 IED 可以显著减少训练集成学习模型所需的时间,PEUSBagging 在 G-Mean 和 AUC 上都显著提高了学习性能。 阅读全文
posted @ 2024-09-28 02:41 乌漆WhiteMoon 阅读(164) 评论(0) 推荐(0)
摘要: 目录问题定义数据集定义数据模型特征生成Theorem A.1 及其证明Theorem A.2 及其证明 在论文《OpenFE: Automated Feature Generation with Expert-level Performance》中作者对理论结论给出了详细的分析过程,这篇博客对该部分 阅读全文
posted @ 2024-09-19 11:00 乌漆WhiteMoon 阅读(102) 评论(0) 推荐(0)
摘要: 本文设计了一种基于深度森林的embedding 学习方法 GraphDF,该方法可以实现以资源为中心的加权属性图的属性和拓扑信息的嵌入。提出的图预处理器包括基于自注意机制的潜在隐含特征挖掘、基于相似性和模块化相关转换对潜在隐含关系特征的深度一般信息挖掘。使编码器所提取的原始特征包含更全面的信息,以用于更广泛和更深的嵌入应用。还引入了一种新的特征提取器和相关的嵌入表示生成器,它利用多粒度扫描和深度级联森林在确保局部收敛的同时全局优化图嵌入表示。该方法避免了过多的约束和偏差,具有较强的泛化和判别能力,通过 7 个数据集实验结果表明 GraphDF 方法优于最先进的嵌入方法。 阅读全文
posted @ 2024-09-18 17:00 乌漆WhiteMoon 阅读(87) 评论(0) 推荐(0)
摘要: 针对搜索 Pareto 前沿需要生成大量的解导致大量模型训练开销的问题,本文提出了多分类多目标选择集成 MMSE 框架。该框架在多目标建模中引入选择性集成,这样就不必重复训练整个模型,而是通过不同的基础学习器组合来获得不同的模型。训练单个学习器时使用了不同比例的欠采样数据集进行训练,提高了训练效率。同时由多个基学习器集成得到的模型可以覆盖更多的训练样本,避免了信息丢失的问题,在不同的类中具有更多样化的性能选择。当类的数量增加时,因为大多数生成的解是不可比较的,优化问题变得困难。本文进一步提出了一个基于边际的版本 MMSEmargin,它通过优化标签和实例边界来优化常见的性能度量,将目标数量减少到 3 个,同时仍然可以对常用的指标进行优化。 阅读全文
posted @ 2024-09-01 16:07 乌漆WhiteMoon 阅读(80) 评论(0) 推荐(0)
摘要: 本文提出了一种可扩展自动特征工程方法 SAFE,它包括特征生成阶段和特征选择阶段,具备较高的计算效率、可扩展性,能满足实际业务问题的要求。不同于使用算子枚举所有的生成特征,本文的特征生成阶段专注于挖掘原始特征对,以更高的概率生成更有效的新特征。在特征选择阶段,本文的方法考虑了单个特征的信息量、特征对的冗余性、树模型评估的特征重要性。通过实验证明,SAFE 算法在大量数据集和多个分类器上具有优势,与原始特征空间相比预测精度平均提高了6.50%。 阅读全文
posted @ 2024-08-20 17:22 乌漆WhiteMoon 阅读(120) 评论(0) 推荐(0)
摘要: 本文关注当数据集包含大量样本时的特征选择算法,主要使用梯度增强回归树实现,设计的模型称为梯度增强特征选择 GBFS。在梯度增强框架的基础上,采用贪心 CART 算法构建树。CBFS 对新特征产生的分割将受到惩罚,但如果是重用以前选择的特征就可以避免这个惩罚。当 GBFS 学习回归树的集合时,可以自然地发现特征之间的非线性相互作用。与随机森林的 FS 相比,GBFS 能够实现将特征选择和分类同时进行优化。实验环节在几个不同难度和大小的真实世界数据集上进行评估,结果表明 GBFS 优于或相当于随机森林特征选择的准确性和特征选择的性能,同时可以有效地处理特征间依赖关系。 阅读全文
posted @ 2024-08-16 15:00 乌漆WhiteMoon 阅读(120) 评论(0) 推荐(0)
摘要: 本文提出了一种自动特征工程学习模型 AutoLearn,AutoLearn 基于特征对之间的回归,通过特征相互关联的方式发现数据中的潜在模式及其变化,并选择非常少量的新特征来显著提高预测性能。提出的新的特征生成方法可以捕获特征对中的显著变化,从而产生高度判别性的信息。通过实验证明了我们的方法在大量数据集和多个分类器上的优势,与原始特征空间相比,预测精度平均提高了13.28%。 阅读全文
posted @ 2024-08-13 17:31 乌漆WhiteMoon 阅读(131) 评论(0) 推荐(0)
摘要: 本文提出了一种自动特征生成模型 OpenFE,它通过一个特征增强算法和一个两阶段修剪算法来解决 expand-and-reduce 框架的挑战。本文认为模型再训练并不需要准确评估新特征的增量性能,在梯度增强的启发下提出了一种用于评估新特征增量性能的高效算法 FeatureBoost。同时本文提出了一种两阶段修剪算法,以有效地从大量候选特征中检索有效特征。由于有效特征通常是稀疏的,两阶段剪枝算法以粗到细的方式进行特征剪枝。实验部分在各种数据集中验证了 OpenFE 的性能,OpenFE 大大优于现有的基线方法。同时在自动特征生成模型的研究中很多现有方法都没有开源,本文还复现了一些经典方法并进行了基准测试,以便在未来的研究中进行公平的比较。 阅读全文
posted @ 2024-08-12 18:01 乌漆WhiteMoon 阅读(289) 评论(0) 推荐(0)
摘要: 针对价格预测问题的特点,本文提出了一种代价敏感的深度森林价格预测方法 CSDF。通过代价敏感方案对远离真实价格类别的错误分类施加更高的成本,期望降低错误分类的成本并将其推向真实价格范围。此外为了进一步提高整体性能,通过修改传统的 K-means 方法,开发了一种改进的 K-means 离散化方法来预先定义价格的类别。基于多个真实数据集的实验结果表明,与传统深度森林和其他基准相比,本文提出的代价敏感深度森林可以显著降低成本,同时保持较好的准确性。 阅读全文
posted @ 2024-07-31 18:09 乌漆WhiteMoon 阅读(61) 评论(0) 推荐(0)
摘要: 本文旨在研究构建多特征的不同方法,并分析它们的有效性、效率和潜在行为,以揭示在高维数据上使用 GP 构建多特征的洞察力。本研究研究了三种多特征构建方法,包括两种使用多树表示的方法,即类独立 MCIFC 和类依赖 CDFC,以及 Neshatian 等提出的一种使用单树表示的方法 1TGPFC 构建类依赖特征。将使用常用的学习算法(包括 KNN、朴素贝叶斯和决策树 DT)对三种方法构建的特征的性能进行比较。结果表明多特征构建的性能明显优于单特征构建,类依赖的构造特征比类独立的构造特征具有更好的性能。 阅读全文
posted @ 2024-06-30 23:49 乌漆WhiteMoon 阅读(82) 评论(0) 推荐(0)
上一页 1 2 3 4 5 6 ··· 39 下一页