摘要:
对比学习损失函数InfoNCE 在前文NCE损失函数将样本分为data和noise做二分类, InfoNCE将这种思想推广到多分类问题中, 使用Softmax形式推广, 我们回顾一下之前NCE的交叉熵损失函数, 在这里我们加上了负号, 让目标函数变成了损失函数, 如下公式所示: \[\mathcal 阅读全文
posted @ 2025-04-08 15:51
PowerZZJ
阅读(469)
评论(0)
推荐(0)
摘要:
对比学习损失函数NCE 对于特征相似还有一种理解视角, 就是互信息最大化, 也就是同一个物品不同视角下的特征之间的互信息应该最大化. 这一节将要推导的NCE和下一节将要推导的InfoNCE就是互信息的一种近似估计办法(也叫JSD估计), 为什么不直接计算下面公式展示的互信息了, 因为互信息的计算太过 阅读全文
posted @ 2025-04-08 15:50
PowerZZJ
阅读(53)
评论(0)
推荐(0)

浙公网安备 33010602011771号