以下是基于 **Ollama平台模型列表** 的分类与简介,按核心功能与特性划分:
以下是基于 Ollama平台模型列表 的分类与简介,按核心功能与特性划分:
一、基础大语言模型(General LLMs)
模型名称 | 参数规模 | 特点简介 |
---|---|---|
Llama3.3 | 70B | 当前最强开源模型,性能接近 Llama3.1 405B,支持长上下文推理与多任务。 |
Llama3.1 | 8B/70B/405B | Meta 最新旗舰模型,支持多语言、代码生成,生态工具丰富。 |
Qwen2.5 | 0.5B-72B | 阿里最新多语言模型,支持 128K 上下文,预训练数据达 18 万亿 token。 |
Gemma2 | 2B/9B/27B | Google 高效轻量模型,支持多任务与长文本生成,开源可商用。 |
Phi-4 | 14B | 微软高性能小模型,数学推理与多语言能力突出,支持函数调用。 |
DeepSeek-R1 | 1.5B-671B | 深度求索首代推理模型,支持复杂逻辑任务,性能对标 GPT-4。 |
Mistral-Large2 | 123B | Mistral 旗舰模型,128K 上下文,多语言与代码生成能力顶尖。 |
Falcon3 | 1B-10B | 高效轻量,专精科学、数学与代码任务,资源占用低。 |
二、嵌入模型(Embedding Models)
模型名称 | 特点简介 |
---|---|
nomic-embed-text | 高精度开源嵌入模型,支持长上下文窗口。 |
mxbai-embed-large | 多语言嵌入模型,支持多粒度文本向量化。 |
snowflake-arctic-embed | Snowflake 前沿嵌入模型,多语言优化,兼顾性能与扩展性。 |
granite-embedding | IBM 轻量级嵌入模型,支持多语言与长文本检索。 |
三、视觉语言模型(Vision-Language Models)
模型名称 | 参数规模 | 特点简介 |
---|---|---|
LLaVA | 7B-34B | 多模态模型,支持图像理解与对话,兼容 Vicuna 架构。 |
Llama3.2-Vision | 11B/90B | 基于 Llama3 的视觉推理模型,专精图像分析与描述。 |
moondream2 | 1.8B | 轻量级视觉模型,适配边缘设备,支持实时图像理解。 |
minicpm-v | 8B | 高效多模态模型,支持视觉问答与跨模态生成。 |
四、代码生成模型(Code Models)
模型名称 | 参数规模 | 特点简介 |
---|---|---|
CodeLlama | 7B-70B | Meta 代码生成专用模型,支持代码补全与调试。 |
DeepSeek-Coder-V2 | 16B/236B | 混合专家(MoE)代码模型,性能对标 GPT-4 Turbo。 |
CodeGemma | 2B/7B | Google 轻量级代码模型,支持代码补全与数学推理。 |
WizardCoder | 33B | 代码生成 SOTA 模型,专精复杂编程任务。 |
SQLCoder | 7B/15B | 基于 StarCoder2 的 SQL 生成模型,适配数据库查询场景。 |
五、工具增强模型(Tool-Augmented Models)
模型名称 | 参数规模 | 特点简介 |
---|---|---|
llama3-gradient | 8B/70B | 支持超长上下文(1M token),适合文档分析与检索增强生成(RAG)。 |
firefunction-v2 | 70B | 开源函数调用模型,性能对标 GPT-4o,支持复杂 API 交互。 |
llama3-groq-tool-use | 8B/70B | Groq 定制工具调用模型,支持多模态任务扩展。 |
nexusraven | 13B | 专精函数调用任务,适配自动化流程开发。 |
六、数学推理模型(Math & Reasoning)
模型名称 | 参数规模 | 特点简介 |
---|---|---|
DeepSeek-Math | 7B/72B | 数学推理 SOTA 模型,支持复杂方程求解与逻辑推导。 |
Wizard-Math | 7B-70B | 微软数学专用模型,性能超越 GPT-4 数学能力。 |
MathΣtral | 7B | Mistral 数学与科学发现模型,适配学术研究场景。 |
Qwen2.5-Math | 1.5B-72B | 阿里数学优化模型,支持多步推理与代码辅助计算。 |
七、高效/轻量级模型(Efficient Models)
模型名称 | 参数规模 | 特点简介 |
---|---|---|
Phi-3 | 3.8B/14B | 手机端可运行(1.8GB 量化后),性能接近 Llama3 8B。 |
TinyLlama | 1.1B | 超轻量模型,3 万亿 token 预训练,适配低配置设备。 |
SmolLM | 135M-1.7B | 极简架构,平衡性能与资源占用,支持多任务微调。 |
Gemma | 2B/7B | Google 轻量级开源模型,适配边缘计算与移动端。 |
八、多语言模型(Multilingual Models)
模型名称 | 参数规模 | 特点简介 |
---|---|---|
Aya 23 | 8B/35B | 支持 23 种语言,Cohere 多语言 SOTA 模型。 |
GLM4 | 9B | 多语言通用模型,性能对标 Llama3,适配全球化场景。 |
Sailor2 | 1B-20B | 东南亚语言优化,支持马来语、泰语等低资源语言。 |
Qwen | 0.5B-110B | 阿里多语言模型,支持中、英、代码混合生成。 |
九、领域专用模型(Domain-Specific)
模型名称 | 参数规模 | 领域方向 |
---|---|---|
MedLlama2 | 7B | 医疗问答模型,基于开源医学数据集微调。 |
Granite-Code | 3B-34B | IBM 代码智能模型,支持代码翻译与修复。 |
Bespoke-MiniCheck | 7B | 事实核查专用模型,支持高精度信息验证。 |
Reader-LM | 0.5B-1.5B | HTML 转 Markdown 专用,适配内容格式转换场景。 |
十、安全与合规模型(Safety & Compliance)
模型名称 | 参数规模 | 特点简介 |
---|---|---|
Llama-Guard3 | 1B/8B | 内容安全分类模型,支持 LLM 输入输出过滤。 |
ShieldGemma | 2B-27B | 安全评估模型,支持文本输入与输出的策略合规检测。 |
Granite-Guardian | 2B/8B | IBM 风险检测模型,支持提示与响应内容安全分析。 |
其他备注
-
参数规模:
B=十亿参数
,M=百万参数
; -
部署建议:大模型(如 70B+)需高性能 GPU,轻量模型(如 Phi-3)可运行于手机或低配设备;
-
更新时效:部分模型(如
phi4-mini
、r1-1776
)为近期更新版本,建议优先尝试; -
工具推荐:使用 Ollama、LM Studio 或 llama.cpp 简化本地部署流程。
如需特定模型对比或部署指南,可进一步补充需求!
根据Ollama平台模型列表中的下载量(Pulls)数据,Meta Llama 3.1(27M Pulls)是当前使用最广泛的模型,其次是DeepSeek-R1(26.4M Pulls)和嵌入模型nomic-embed-text(19.1M Pulls)。以下是具体分析:
使用最广泛的模型 Top 5
模型名称 | Pulls 数据 | 特点与适用场景 |
---|---|---|
1. Llama3.1 | 27M | Meta 最新旗舰模型,支持多语言、代码生成和长上下文推理,社区生态丰富。 |
2. DeepSeek-R1 | 26.4M | 深度求索首代推理模型,数学与代码能力突出,性能对标 GPT-4。 |
3. nomic-embed-text | 19.1M | 高精度开源嵌入模型,适用于文本检索、聚类等场景。 |
4. Llama3.2 | 10.6M | 轻量版(1B/3B),适配低配置设备,支持工具调用。 |
5. Mistral | 10.3M | 7B 参数下性能超越 Llama 2 13B,开源可商用。 |
关键结论
-
Llama3.1 优势:
-
规模与性能:覆盖 8B/70B/405B 参数,综合能力最强。
-
开源生态:社区支持广泛(如 GGUF 量化、LangChain 集成),工具链成熟。
-
多语言支持:优化中文、代码生成和长上下文任务,适用场景多样。
-
-
DeepSeek-R1 崛起:
-
推理效率:1.5B/7B 版本可在消费级 GPU 运行,平衡性能与资源占用。
-
垂直领域:专精数学、代码任务,适合学术研究与企业复杂逻辑需求。
-
-
嵌入模型需求:
-
nomic-embed-text 的高下载量反映市场对文本向量化工具的强需求(如 RAG、语义搜索)。
-
其他热门模型
-
Phi-4(1.1M Pulls):微软小模型标杆,手机端可运行,性价比极高。
-
CodeLlama(1.8M Pulls):代码生成领域主流选择,支持多编程语言。
-
Qwen2.5(5.3M Pulls):阿里多语言模型,128K 上下文与多模态扩展潜力大。
选择建议
-
通用任务:优先选择 Llama3.1 或 DeepSeek-R1。
-
轻量部署:Phi-3(3.8B)或 TinyLlama(1.1B)。
-
代码生成:CodeLlama 或 DeepSeek-Coder-V2。
-
嵌入任务:nomic-embed-text 或 mxbai-embed-large。
若需进一步对比或部署指导,可提供具体场景需求! 🚀