摘要: 摘要 在多任务学习中,希望通过任务间适当的信息共享,使每个任务都能从其他任务中获益。在本文中,假设各个任务事先被聚类到事先未知的组中,并且组内的任务具有相似的权向量。作者设计了一个新的谱范数来编码这个先验假设,在不考虑任务分组的先验知识的情况下,得到了一个新的多任务学习凸优化公式。即,假设先验知识已 阅读全文
posted @ 2020-10-07 17:20 ArkBagpipe 阅读(147) 评论(0) 推荐(0)
摘要: 引言 本文提出了一种称为多任务关系学习(MRTL)的方法,将任务之间的关系以非参数方式建模为任务协方差矩阵,在正则化框架下得到一个允许同时学习任务间关系和参数的凸目标函数。 MRTL可以看作是将单任务学习的正则化框架推广到多任务的情景。为了提高效率,采用一种将每个子问题作为凸问题的交替优化方法。 文 阅读全文
posted @ 2020-10-05 15:38 ArkBagpipe 阅读(421) 评论(0) 推荐(0)
摘要: 引言 $\quad$多任务学习是一种诱导迁移学习的方法,通过使用相关任务的训练信号中包含的信息来辅助另一个问题。在假设所有数据都可以事先获得的情况下,这个问题已有了一些比较完善的策略。 $\quad$但是近年来,数据在越来越多的场景下是以分布式或者流式的结构出现的,这就需要新的方法。本文介绍了在网络 阅读全文
posted @ 2020-09-24 11:00 ArkBagpipe 阅读(114) 评论(0) 推荐(0)