GKLBB

当你经历了暴风雨,你也就成为了暴风雨

导航

以下是基于 **Ollama平台模型列表** 的分类与简介,按核心功能与特性划分:

以下是基于 Ollama平台模型列表 的分类与简介,按核心功能与特性划分:


一、基础大语言模型(General LLMs)

模型名称参数规模特点简介
Llama3.3 70B 当前最强开源模型,性能接近 Llama3.1 405B,支持长上下文推理与多任务。
Llama3.1 8B/70B/405B Meta 最新旗舰模型,支持多语言、代码生成,生态工具丰富。
Qwen2.5 0.5B-72B 阿里最新多语言模型,支持 128K 上下文,预训练数据达 18 万亿 token。
Gemma2 2B/9B/27B Google 高效轻量模型,支持多任务与长文本生成,开源可商用。
Phi-4 14B 微软高性能小模型,数学推理与多语言能力突出,支持函数调用。
DeepSeek-R1 1.5B-671B 深度求索首代推理模型,支持复杂逻辑任务,性能对标 GPT-4。
Mistral-Large2 123B Mistral 旗舰模型,128K 上下文,多语言与代码生成能力顶尖。
Falcon3 1B-10B 高效轻量,专精科学、数学与代码任务,资源占用低。

二、嵌入模型(Embedding Models)

模型名称特点简介
nomic-embed-text 高精度开源嵌入模型,支持长上下文窗口。
mxbai-embed-large 多语言嵌入模型,支持多粒度文本向量化。
snowflake-arctic-embed Snowflake 前沿嵌入模型,多语言优化,兼顾性能与扩展性。
granite-embedding IBM 轻量级嵌入模型,支持多语言与长文本检索。

三、视觉语言模型(Vision-Language Models)

模型名称参数规模特点简介
LLaVA 7B-34B 多模态模型,支持图像理解与对话,兼容 Vicuna 架构。
Llama3.2-Vision 11B/90B 基于 Llama3 的视觉推理模型,专精图像分析与描述。
moondream2 1.8B 轻量级视觉模型,适配边缘设备,支持实时图像理解。
minicpm-v 8B 高效多模态模型,支持视觉问答与跨模态生成。

四、代码生成模型(Code Models)

模型名称参数规模特点简介
CodeLlama 7B-70B Meta 代码生成专用模型,支持代码补全与调试。
DeepSeek-Coder-V2 16B/236B 混合专家(MoE)代码模型,性能对标 GPT-4 Turbo。
CodeGemma 2B/7B Google 轻量级代码模型,支持代码补全与数学推理。
WizardCoder 33B 代码生成 SOTA 模型,专精复杂编程任务。
SQLCoder 7B/15B 基于 StarCoder2 的 SQL 生成模型,适配数据库查询场景。

五、工具增强模型(Tool-Augmented Models)

模型名称参数规模特点简介
llama3-gradient 8B/70B 支持超长上下文(1M token),适合文档分析与检索增强生成(RAG)。
firefunction-v2 70B 开源函数调用模型,性能对标 GPT-4o,支持复杂 API 交互。
llama3-groq-tool-use 8B/70B Groq 定制工具调用模型,支持多模态任务扩展。
nexusraven 13B 专精函数调用任务,适配自动化流程开发。

六、数学推理模型(Math & Reasoning)

模型名称参数规模特点简介
DeepSeek-Math 7B/72B 数学推理 SOTA 模型,支持复杂方程求解与逻辑推导。
Wizard-Math 7B-70B 微软数学专用模型,性能超越 GPT-4 数学能力。
MathΣtral 7B Mistral 数学与科学发现模型,适配学术研究场景。
Qwen2.5-Math 1.5B-72B 阿里数学优化模型,支持多步推理与代码辅助计算。

七、高效/轻量级模型(Efficient Models)

模型名称参数规模特点简介
Phi-3 3.8B/14B 手机端可运行(1.8GB 量化后),性能接近 Llama3 8B。
TinyLlama 1.1B 超轻量模型,3 万亿 token 预训练,适配低配置设备。
SmolLM 135M-1.7B 极简架构,平衡性能与资源占用,支持多任务微调。
Gemma 2B/7B Google 轻量级开源模型,适配边缘计算与移动端。

八、多语言模型(Multilingual Models)

模型名称参数规模特点简介
Aya 23 8B/35B 支持 23 种语言,Cohere 多语言 SOTA 模型。
GLM4 9B 多语言通用模型,性能对标 Llama3,适配全球化场景。
Sailor2 1B-20B 东南亚语言优化,支持马来语、泰语等低资源语言。
Qwen 0.5B-110B 阿里多语言模型,支持中、英、代码混合生成。

九、领域专用模型(Domain-Specific)

模型名称参数规模领域方向
MedLlama2 7B 医疗问答模型,基于开源医学数据集微调。
Granite-Code 3B-34B IBM 代码智能模型,支持代码翻译与修复。
Bespoke-MiniCheck 7B 事实核查专用模型,支持高精度信息验证。
Reader-LM 0.5B-1.5B HTML 转 Markdown 专用,适配内容格式转换场景。

十、安全与合规模型(Safety & Compliance)

模型名称参数规模特点简介
Llama-Guard3 1B/8B 内容安全分类模型,支持 LLM 输入输出过滤。
ShieldGemma 2B-27B 安全评估模型,支持文本输入与输出的策略合规检测。
Granite-Guardian 2B/8B IBM 风险检测模型,支持提示与响应内容安全分析。

其他备注

  1. 参数规模B=十亿参数M=百万参数

  2. 部署建议:大模型(如 70B+)需高性能 GPU,轻量模型(如 Phi-3)可运行于手机或低配设备;

  3. 更新时效:部分模型(如 phi4-minir1-1776)为近期更新版本,建议优先尝试;

  4. 工具推荐:使用 Ollama、LM Studio 或 llama.cpp 简化本地部署流程。

如需特定模型对比或部署指南,可进一步补充需求!

 

根据Ollama平台模型列表中的下载量(Pulls)数据,Meta Llama 3.1(27M Pulls)是当前使用最广泛的模型,其次是DeepSeek-R1(26.4M Pulls)和嵌入模型nomic-embed-text(19.1M Pulls)。以下是具体分析:


使用最广泛的模型 Top 5

模型名称Pulls 数据特点与适用场景
1. Llama3.1 27M Meta 最新旗舰模型,支持多语言、代码生成和长上下文推理,社区生态丰富。
2. DeepSeek-R1 26.4M 深度求索首代推理模型,数学与代码能力突出,性能对标 GPT-4。
3. nomic-embed-text 19.1M 高精度开源嵌入模型,适用于文本检索、聚类等场景。
4. Llama3.2 10.6M 轻量版(1B/3B),适配低配置设备,支持工具调用。
5. Mistral 10.3M 7B 参数下性能超越 Llama 2 13B,开源可商用。

关键结论

  1. Llama3.1 优势

    • 规模与性能:覆盖 8B/70B/405B 参数,综合能力最强。

    • 开源生态:社区支持广泛(如 GGUF 量化、LangChain 集成),工具链成熟。

    • 多语言支持:优化中文、代码生成和长上下文任务,适用场景多样。

  2. DeepSeek-R1 崛起

    • 推理效率:1.5B/7B 版本可在消费级 GPU 运行,平衡性能与资源占用。

    • 垂直领域:专精数学、代码任务,适合学术研究与企业复杂逻辑需求。

  3. 嵌入模型需求

    • nomic-embed-text 的高下载量反映市场对文本向量化工具的强需求(如 RAG、语义搜索)。


其他热门模型

  • Phi-4(1.1M Pulls):微软小模型标杆,手机端可运行,性价比极高。

  • CodeLlama(1.8M Pulls):代码生成领域主流选择,支持多编程语言。

  • Qwen2.5(5.3M Pulls):阿里多语言模型,128K 上下文与多模态扩展潜力大。


选择建议

  • 通用任务:优先选择 Llama3.1 或 DeepSeek-R1

  • 轻量部署Phi-3(3.8B)或 TinyLlama(1.1B)。

  • 代码生成CodeLlama 或 DeepSeek-Coder-V2

  • 嵌入任务nomic-embed-text 或 mxbai-embed-large

若需进一步对比或部署指导,可提供具体场景需求! 🚀

 
 
 

posted on 2025-03-15 14:13  GKLBB  阅读(2721)  评论(0)    收藏  举报