摘要: 提出背景 现在多数文本嵌入模型都是针对特定任务进行训练(如STS和检索任务),泛化性不足 大规模预训练依赖于私有数据,开源性和可复现性差 模型参数量大,计算复杂度高 模型结构 GTE使用与SBert相似的基于transformer的双塔结构(dual-encoder): 输入给定文本x,经过语言模型 阅读全文
posted @ 2025-07-09 15:59 Luna-Evelyn 阅读(63) 评论(0) 推荐(0)