Embedding系列---【好用的中文模型合集】

一、好用的中文模型合集

1.shaw/dmeta-embedding-zh

shaw/dmeta-embedding-zh是一个只有 100M 参数的中文嵌入模型,支持 1024 的上下文长度,计算效率高,适用于多种任务场景。它在 MTEB 基准测试中取得了优异的成绩,特别适用于语义向量检索、RAG 和其他 LLM 应用。

#ollama下载命令
ollama pull shaw/dmeta-embedding-zh

2.nomic-embed-text

nomic-embed-text 是一个大上下文长度的文本编码器,在短上下文和长上下文任务上的性能超过了 OpenAI text-embedding-ada-002 和 text-embedding-3-small。

#ollama下载命令
ollama pull nomic-embed-text

posted on 2025-03-25 00:42  少年攻城狮  阅读(1192)  评论(0)    收藏  举报

导航