Embedding系列---【好用的中文模型合集】
一、好用的中文模型合集
1.shaw/dmeta-embedding-zh
shaw/dmeta-embedding-zh是一个只有 100M 参数的中文嵌入模型,支持 1024 的上下文长度,计算效率高,适用于多种任务场景。它在 MTEB 基准测试中取得了优异的成绩,特别适用于语义向量检索、RAG 和其他 LLM 应用。
#ollama下载命令
ollama pull shaw/dmeta-embedding-zh
2.nomic-embed-text
nomic-embed-text 是一个大上下文长度的文本编码器,在短上下文和长上下文任务上的性能超过了 OpenAI text-embedding-ada-002 和 text-embedding-3-small。
#ollama下载命令
ollama pull nomic-embed-text
愿你走出半生,归来仍是少年!