利用Transformer模型提升商品检索效果

当顾客在商品搜索结果列表中点击某个商品时,意味着该商品比未点击的结果更相关。"学习排序"模型利用这种隐式反馈来改进搜索结果,通过"成对"(比较结果对)或列表式(判断结果在列表中的位置)方式进行评估。

这种方法存在的问题是缺乏绝对反馈。例如,如果选择中没有商品被点击,就暗示所有结果都不相关。但如果没有点击项作为比较,学习排序模型就无法利用这些信息。同样,如果顾客点击了列表中所有商品,可能表示所有结果都相关,但也可能是为了寻找一个相关结果而进行的徒劳搜索。

在KDD 2023会议上发表的论文中,提出了一种新的学习排序方法,该方法考虑了绝对反馈。它使用自然语言处理中流行的Transformer模型来关注同一列表中商品之间的差异,预测它们被点击的相对可能性。

实验中,将该方法与标准神经网络模型和使用梯度提升决策树(GBDT)的模型进行了比较。在三个公共数据集上,GBDT表现最佳,但新模型优于基线神经网络。而在某中心内部搜索数据上,新方法全面优于基线模型。

模型为数据集中的每个商品分配值:未点击为0,点击为1,购买为2。列表的绝对值定义为最高值成员的值,基于产品查询目的是识别单个购买商品的假设。Transformer模型接收列表中每个产品的信息以及类别标记,生成向量表示:产品表示捕获评估与查询匹配度的信息,类别标记表示捕获列表整体信息。

Transformer的关键设计特性是其注意力机制,该机制根据上下文学习如何权衡不同输入特征。例如,Transformer可以学习到10美元商品在20美元商品列表和5美元商品列表中应有不同上下文处理。这种上下文化基于整体绝对反馈进行训练,使模型能从无点击或购买的列表中学习。

尽管在专有数据上的结果更显著,但研究仍在公开可用数据集上进行了评估。在某中心搜索数据上,新模型实现了比其他方法更好的性能,包括强大的GBDT模型。基于这些结果,研究将继续从客户反馈中学习。用户视角是排序问题的核心,点击和购买数据似乎是值得进一步研究的信号。
更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)或者 我的个人博客 https://blog.qife122.com/
公众号二维码

posted @ 2025-08-19 14:06  CodeShare  阅读(9)  评论(0)    收藏  举报