PAI Model Gallery 支持云上一键部署 DeepSeek-V3、DeepSeek-R1 系列模型

PAI Model Gallery 支持云上一键部署 DeepSeek-V3、DeepSeek-R1 系列模型

 
https://pai.console.aliyun.com/?regionId=cn-shanghai#/quick-start/models

01

DeepSeek-V3、R1 系列模型DeepSeek-V3 是 DeepSeek 发布的 MoE(Mixture-of-Experts)大语言模型,总参数量为671B,每个 token 激活的参数量为37B。为了实现高效的推理和成本效益的训练,DeepSeek-V3 采用了 MLA(Multi-head Latent Attention)和 DeepSeekMoE 架构。此外,DeepSeek-V3 首次引入了一种无需辅助损失的负载均衡策略,并设定了多 token 预测的训练目标,以提升性能。DeepSeek-V3 在14.8万亿个多样且高质量的 token 上对模型进行了预训练,随后通过监督微调(SFT)和强化学习来充分发挥其潜力。DeepSeek-R1 是 DeepSeek 发布的高性能 AI 推理模型,在后训练阶段大规模使用强化学习技术,显著提升了模型的推理能力,在数学、代码、自然语言推理等任务上,其性能与 OpenAI 的 o1 正式版相当。DeepSeek-R1 具有660B的参数量,DeepSeek 开源 660B 模型的同时,通过模型蒸馏,微调了若干参数量较小的开源模型,其中包括:

模型

基础模型

DeepSeek-R1-Distill-Qwen-1.5B

Qwen2.5-Math-1.5B

DeepSeek-R1-Distill-Qwen-7B

Qwen2.5-Math-7B

DeepSeek-R1-Distill-Llama-8B

Llama-3.1-8B

DeepSeek-R1-Distill-Qwen-14B

Qwen2.5-14B

DeepSeek-R1-Distill-Qwen-32B

Qwen2.5-32B

DeepSeek-R1-Distill-Llama-70B

Llama-3.3-70B-Instruct

目前 PAI Model Gallery 已经支持 DeepSeek-V3、DeepSeek-R1 以及所有蒸馏小参数模型(DeepSeek-R1-Distill)的一键部署。

02

PAI Model Gallery 简介Model Gallery 是阿里云人工智能平台 PAI 的产品组件,它集成了国内外 AI 开源社区中优质的预训练模型,涵盖了 LLM、AIGC、CV、NLP 等各个领域,如Qwen,DeepSeek等系列模型。通过 PAI 对这些模型的适配,用户可以零代码实现从训练到部署再到推理的全过程,简化了模型的开发流程,为开发者和企业用户带来了更快、更高效、更便捷的 AI 开发和应用体验。PAI Model Gallery 访问地址:https://pai.console.aliyun.com/#/quick-start/model

03

 

PAI Model Gallery 一键部署 Deep Seek-V3、Deep Seek-R11. 进入 Model Gallery 页面(链接:https://pai.console.aliyun.com/#/quick-start/models
    1. 登录 PAI 控制台。
    2. 在顶部左上角根据实际情况选择地域。
    3. 在左侧导航栏选择工作空间列表,单击指定工作空间名称,进入对应工作空间内。
    4. 在左侧导航栏选择快速开始 > Model Gallery。

 


  1. 在 Model Gallery 页面的模型列表中,单击找到并点击需要部署的模型卡片,例如“DeepSeek-R1-Distill-Qwen-7B”模型,进入模型详情页面。

 


  1. 单击右上角部署:目前 DeepSeek-R1 支持采用 vLLM 加速部署;DeepSeek-V3 支持 vLLM 加速部署以及 Web 应用部署;DeepSeek-R1 蒸馏小模型支持采用 BladeLLM(阿里云 PAI 自研高性能推理框架)和 vLLM 加速部署。选择部署方式和部署资源后,即可一键部署服务,生成一个 PAI-EAS 服务。

  1. 使用推理服

     

    务。部署成功后,在服务页面可以点击“查看调用信息”获取调用的 Endpoint 和 Token,想了解服务调用方式可以点击预训练模型链接,返回模型介绍页查看调用方式说明。

 

 


欢迎各位开发者持续关注和使用 PAI-Model Gallery,Model Gallery 会不断上线 SOTA 模型。如果您有任何模型需求,欢迎您联系我们

 
 

 

 
 

一键部署DeepSeek-V3、DeepSeek-R1模型

更新时间:2025-02-12 11:21:24
 

DeepSeek-V3是由深度求索公司推出的一款拥有6710亿参数的专家混合(MoE)大语言模型,DeepSeek-R1是基于DeepSeek-V3-Base训练的高性能推理模型。Model Gallery提供了vLLMBladeLLM加速部署功能,帮助您一键部署DeepSeek-V3DeepSeek-R1系列模型。

支持的模型列表

重要

DeepSeek-R1、DeepSeek-V3满血版模型的参数量较大(671B),所需配置和成本较高(896G显存以上)。建议您选择蒸馏版模型(机器资源较充足、部署成本较低)。

根据测试,DeepSeek-R1-Distill-Qwen-32B模型的效果和成本较优,适合云上部署,可尝试作为DeepSeek-R1的替代模型。您也可以选择7B、8B、14B等其他蒸馏模型部署,Model Gallery还提供了模型评测功能,可以评测模型实际效果(评测入口在模型详情页右上角)。

表中给出的是最低所需配置机型,在Model Gallery的部署页面的资源规格选择列表中系统已自动过滤出模型可用的公共资源规格。

     
       

 

模型

 

最低配置

支持的最大Token

部署方式为BladeLLM加速(推荐)

部署方式为SGLang加速(推荐)

部署方式为vLLM加速

部署方式为标准部署

DeepSeek-R1

8GU120(8 * 96 GB显存)

不支持

163840

4096

不支持

DeepSeek-V3

8GU120(8 * 96 GB显存)

不支持

163840

4096

2000

DeepSeek-R1-Distill-Qwen-1.5B

1A10(24 GB显存)

131072

不支持

131072

131072

DeepSeek-R1-Distill-Qwen-7B

1A10(24 GB显存)

131072

不支持

32768

131072

DeepSeek-R1-Distill-Llama-8B

1A10(24 GB显存)

131072

不支持

32768

131072

DeepSeek-R1-Distill-Qwen-14B

1GPU L(48 GB显存)

131072

不支持

32768

131072

DeepSeek-R1-Distill-Qwen-32B

2GPU L(2 * 48 GB显存)

131072

不支持

32768

131072

DeepSeek-R1-Distill-Llama-70B

2GU120(2 * 96 GB显存)

131072

不支持

32768

131072

部署方式说明:

  • BladeLLM 加速部署:BladeLLM是阿里云 PAI 自研的高性能推理框架。

  • SGLang 加速部署:SGLang 是一个适用于大型语言模型和视觉语言模型的快速服务框架。

  • vLLM 加速部署:vLLM是一个业界流行的用于LLM推理加速的库。

  • 标准部署:不使用任何推理加速的标准部署。

推荐使用加速部署(BladeLLM、SGLang),性能和支持的最大Token数都会更优。

加速部署仅支持API调用方式,标准部署支持API调用方式及WebUI chat界面。

部署模型

  1. 进入Model Gallery页面。

    1. 登录PAI控制台

    2. 在顶部左上角根据实际情况选择地域。

    3. 在左侧导航栏选择工作空间列表,单击指定工作空间名称,进入对应工作空间。

    4. 在左侧导航栏选择快速开始 > Model Gallery。

  2. Model Gallery页面右侧的模型列表中,找到需要部署的模型卡片,例如DeepSeek-R1-Distill-Qwen-32B模型,单击进入模型详情页面。

  3. 单击右上角部署,选择部署方式和部署资源后,即可一键部署,生成一个 PAI-EAS 服务。

    说明

    对于DeepSeek-R1、DeepSeek-V3的部署,除了公共资源组中的ml.gu8v.c192m1024.8-gu120、ecs.gn8v-8x.48xlarge机型(库存可能较紧张)外,ecs.ebmgn8v.48xlarge机型也可以使用,但请注意该机型无法通过公共资源使用,请购买EAS专属资源 。

    image

使用推理服务

部署成功后,在服务页面单击查看调用信息获取调用的 Endpoint 和 Token。

不同部署方式支持的服务调用方式不同,您可以在Model Gallery的模型介绍页查看详细说明。

         
 

BladeLLM部署

SGLang部署

vLLM部署

标准部署

WebUI

不支持。可下载Web UI代码,在本地启动一个Web UI。注意:BladeLLMvLLMWeb UI代码不同。

 
 
python webui_client.py --eas_endpoint "<EAS API Endpoint>" --eas_token "<EAS API Token>"

支持

在线调试

支持。您可以在任务管理-部署任务选择部署任务进入详情页找到在线调试的入口。

API调用

completions 接口:<EAS_ENDPOINT>/v1/completions

chat 接口:

<EAS_ENDPOINT>/v1/chat/completions

 

API 描述文件:<EAS_ENDPOINT>/openapi.json

模型列表:<EAS_ENDPOINT>/v1/models

completions 接口:

<EAS_ENDPOINT>/v1/completions

chat 接口:<EAS_ENDPOINT>/v1/chat/completions

<EAS_ENDPOINT>

兼容OpenAI SDK

不兼容

兼容

兼容

不兼容

请求数据格式

completionschat请求数据格式不一样。

 

 

相比BladeLLM,需要增加model参数。model参数的值可通过模型列表接口'<EAS_ENDPOINT>/v1/models'获取。

支持字符串和JSON类型。

单击查看请求数据示例

image

image

如果是标准部署,支持Web应用。在PAI-Model Gallery > 任务管理 > 部署任务中单击已部署的服务名称,在服务详情页面右上角单击查看WEB应用,即可通过ChatLLM WebUI进行实时交互。

image

API调用,详情请参见如何使用API进行模型推理

关于成本

  • 由于DeepSeek-V3DeepSeek-R1模型较大,模型部署费用较高,建议用于正式生产环境。

  • 您还可以选择部署经过知识蒸馏的轻量级模型,这些模型的参数量显著减少,从而大幅降低部署成本。

  • 如果您从未使用过EAS,可以前往阿里云试用中心领取PAI-EAS试用资源。领取成功后,可以在Model Gallery选择最低配置为 A10 的模型(如DeepSeek-R1-Distill-Qwen-7B)进行部署,并在部署时修改资源规格为试用活动中的机型。

  • 对于长期使用的模型,您可以采用公共资源组搭配节省计划的方式,或者购买预付费EAS资源组来节约成本。

  • 如果是非生产环境使用,可以在部署时打开竞价模式,但需满足一定条件才能竞价成功,且有资源不稳定的风险。

FAQ

点击部署后服务长时间等待

可能的原因:

  • 当前地域下机器资源不足。

  • 由于模型较大,模型加载耗时较长(对于DeepSeek-R1、DeepSeek-V3这样的大模型,需要20-30min)。

您可以耐心等待观察一段时间,如果服务仍长时间无法正常启动运行,建议尝试以下步骤:

  1. 进入任务管理-部署任务,查看部署任务详情页。在页面右上角单击更多 > 更多信息,跳转到PAI-EAS的模型服务详情,查看服务实例状态。

    EAS实例状态

  2. 关闭当前服务,并在控制台左上角切换到其他地域重新部署服务。

    说明

    对于DeepSeek-R1、DeepSeek-V3这样的超大参数量模型,需要8GPU才能启动服务(资源库存较紧张),您可以选择部署DeepSeek-R1-Distill-Qwen-7B等蒸馏小模型(资源库存较富裕)。

服务部署成功后,调用API返回404

请检查调用的URL是否加上了OpenAIAPI后缀,例如v1/chat/completions。详情可以参考模型主页调用方式介绍。

模型部署之后没有“联网搜索”功能

“联网搜索”功能并不是仅通过直接部署一个模型服务就能实现的,而是需要基于该模型服务自行构建一个AI应用(Agent)来完成。

通过PAI的大模型应用开发平台LangStudio,可以构建一个联网搜索的AI应用,详情请参考Chat With Web Search应用流

模型服务如何集成到AI应用(以Dify为例)

DeepSeek-R1-Distill-Qwen-7B模型为例,建议采用vLLM加速部署。

  1. Dify中编辑“模型供应商”,添加更多模型供应商“OpenAI-API-compatible”:

    image

  2. 模型名称填写“DeepSeek-R1-Distill-Qwen-7B”,API Key填写EAS服务Token,API endpoint URL填写EAS服务endpoint(注意末尾加上/v1)。EAS服务Tokenendpoint获取方式:进入Model Gallery的任务管理-部署任务,在部署任务详情页面单击查看调用信息。

    https://help.aliyun.com/zh/pai/user-guide/one-click-deploy-deepseek?spm=5176.21213303.J_v8LsmxMG6alneH-O7TCPa.11.39842f3d1J3U3K&scm=20140722.S_help@@%E6%96%87%E6%A1%A3@@2865727._.ID_help@@%E6%96%87%E6%A1%A3@@2865727-RL_DeepSeek-LOC_2024SPAllResult-OR_ser-PAR1_213e365517394283044626249e5cb4-V_4-RE_new6-P0_2-P1_0image

 
   

 https://www.aliyun.com/solution/tech-solution/deepseek-r1-for-platforms?spm=5176.21213303.J_v8LsmxMG6alneH-O7TCPa.5.39842f3d1J3U3K&scm=20140722.S_product@@%E6%8A%80%E6%9C%AF%E8%A7%A3%E5%86%B3%E6%96%B9%E6%A1%88@@2868650._.ID_product@@%E6%8A%80%E6%9C%AF%E8%A7%A3%E5%86%B3%E6%96%B9%E6%A1%88@@2868650-RL_DeepSeek-LOC_2024SPAllResult-OR_ser-PAR1_213e365517394283044626249e5cb4-V_4-RE_new6-P0_0-P1_0

0门槛

 

https://chatboxai.app/zh#download

  1.  

  2. 在弹出的看板中按照如下表格进行配置。

    项目

    说明

    示例值

    模型提供方

    下拉选择模型提供方。

    添加自定义提供方

    名称

    填写定义模型提供方名称。

    百炼 API

    API 域名

    填写模型服务调用地址。

    https://dashscope.aliyuncs.com/compatible-mode/v1

    API 密钥

    填写模型服务调用 API 密钥。

    填写 上一步骤获取的百炼 API-KEY

    模型

    填写调用的模型(本方案以 deepseek-r1 模型为例,可自行配置其它模型进行体验)。

    deepseek-r1

  3. 最终配置如下图所示,然后单击保存。

     

    image

     

  4. 在文本输入框中可以进行对话交互。输入问题你是谁?或者其他指令后,调用模型服务获得相应的响应。

  5.  
 
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
   
 跳转至主内容
 
工作台
 
 
99+
 
产品与服务
 
我的收藏
收藏列表为空
右侧可将您常用云产品添加到收藏

热门产品推荐

产品与服务

媒体服务

 

媒体处理与内容生产

媒体服务

域名与网站

 

域名与备案服务

知识产权服务

云市场

 

支持与服务

 
 
 
 

 
 
 
 
 
 
 
Model Gallery
集成丰富的预训练模型,提供一站式零代码的模型训练、压缩、评测、部署服务功能,助您快速上手AI能力
综合排序
模型来源
 
model scope
huggingface
pai
nvidia nim
 
场景
 
生成式AI
文本生成图片
大语言模型
图像描述
文本生成视频
多模态大语言模型
计算机视觉
图片分类
目标检测
视频分类
图像分割
光学识别ocr
姿态估计
自然语言处理
文本分类
序列标注
文本摘要
零样本分类
Embedding
文本生成
文本翻译
语音
语音识别
语音合成
生物医学
氨基酸预测
医学影像
分子生成
蛋白质结构预测
其他
天气预测
数字人
 
支持操作
 
部署
训练
压缩
评测
 
体验
 
在线体验
 
模型系列
 
通义千问
Llama
Stable Diffusion
ChatGLM
百川
类Sora模型
零一万物
Gemma
DeepSeek
InternVL
Phi
FLUX
YOLO
InternLM
UI-TARS
DeepSeek-R1
 
DeepSeek-R1
 
大语言模型
DeepSeek
参数量 671B
DeepSeek推出了第一版的推理模型——DeepSeek-R1-Zero和DeepSeek-R1。其中,DeepSeek-R1-Zero是通过大规模强化学习(RL)训练而成,未经过监督微调(SFT)作为初步步骤,却在推理任务上展现了卓越性能。借助RL,DeepSee...
model scope
 
2025.02.12 更新
 
部署
 
DeepSeek-R1-Distill-Qwen-32B
 
DeepSeek-R1-Distill-Qwen-32B
 
大语言模型
DeepSeek
参数量 32B
DeepSeek-R1-Distill-Qwen-32B是开源模型DeepSeek-R1基于Qwen2.5-32B蒸馏后的模型
model scope
 
2025.02.11 更新
 
部署/训练/评测
 
DeepSeek-R1-Distill-Qwen-7B
 
DeepSeek-R1-Distill-Qwen-7B
 
大语言模型
DeepSeek
参数量 7B
DeepSeek-R1-Distill-Qwen-7B是开源模型DeepSeek-R1基于Qwen2.5-7B蒸馏后的模型
model scope
 
2025.02.11 更新
 
部署/训练/评测
 
DeepSeek-R1-Distill-Llama-8B
 
DeepSeek-R1-Distill-Llama-8B
 
大语言模型
DeepSeek
参数量 8B
DeepSeek-R1-Distill-Llama-8B是开源模型DeepSeek-R1基于Llama-8B蒸馏后的模型
model scope
 
2025.02.11 更新
 
部署/训练/评测
 
DeepSeek-V3
 
DeepSeek-V3
 
大语言模型
DeepSeek
参数量 671B
DeepSeek-V3,是一个MoE架构的大语言模型,总参数量为671B。在多个性能测试数据集上DeepSeek-V3的表现优于其他开源模型,并达到了与领先闭源模型(GPT-4o)相当的性能水平。
model scope
 
2025.02.12 更新
 
部署
 
DeepSeek-R1-Distill-Llama-70B
 
DeepSeek-R1-Distill-Llama-70B
 
大语言模型
DeepSeek
参数量 70B
DeepSeek-R1-Distill-Llama-70B是开源模型DeepSeek-R1基于Llama-70B蒸馏后的模型
model scope
 
2025.02.11 更新
 
部署/训练/评测
 
DeepSeek-R1-Distill-Qwen-14B
 
DeepSeek-R1-Distill-Qwen-14B
 
大语言模型
DeepSeek
参数量 14B
DeepSeek-R1-Distill-Qwen-14B是开源模型DeepSeek-R1基于Qwen2.5-14B蒸馏后的模型
model scope
 
2025.02.11 更新
 
部署/训练/评测
 
DeepSeek-R1-Distill-Qwen-1.5B
 
DeepSeek-R1-Distill-Qwen-1.5B
 
大语言模型
DeepSeek
参数量 1.5B
DeepSeek-R1-Distill-Qwen-1.5B是开源模型DeepSeek-R1基于Qwen2.5-1.5B蒸馏后的模型
model scope
 
2025.02.11 更新
 
部署/训练/评测
 
DeepSeek-V3-GGUF
 
DeepSeek-V3-GGUF
 
大语言模型
DeepSeek
参数量 671B
DeepSeek-V3,是一个MoE架构的大语言模型,总参数量为671B。在多个性能测试数据集上DeepSeek-V3的表现优于其他开源模型,并达到了与领先闭源模型(GPT-4o)相当的性能水平。
model scope
 
2025.02.06 更新
 
部署
 
UI-TARS-7B-DPO
 
UI-TARS-7B-DPO
 
多模态大语言模型
UI-TARS
参数量 7B
UI-TARS 是一个下一代原生 GUI agent 模型,旨在通过类似人类的感知、推理和行动能力与图形用户界面(GUI)进行无缝交互。与传统的模块化框架不同,UI-TARS 在单一的视觉-语言模型(VLM)中集成了所有关键组件——包括感知、...
model scope
 
2025.02.10 更新
 
部署
 
UI-TARS-72B-DPO
 
UI-TARS-72B-DPO
 
多模态大语言模型
UI-TARS
参数量 72B
UI-TARS 是一个下一代原生 GUI agent 模型,旨在通过类似人类的感知、推理和行动能力与图形用户界面(GUI)进行无缝交互。与传统的模块化框架不同,UI-TARS 在单一的视觉-语言模型(VLM)中集成了所有关键组件——包括感知、...
model scope
 
2025.01.25 更新
 
部署
 
Qwen2.5-VL-7B-Instruct
 
Qwen2.5-VL-7B-Instruct
 
多模态大语言模型
通义千问
参数量 7B
Qwen2.5-VL 是阿里云研发的大规模视觉语言模型(Large Vision Language Model, LVLM)。Qwen-VL 可以以图像、文本、检测框作为输入,并以文本和检测框作为输出。
model scope
 
2025.02.05 更新
 
部署/训练
 
UI-TARS-7B-SFT
 
UI-TARS-7B-SFT
 
多模态大语言模型
UI-TARS
参数量 7B
UI-TARS 是一个下一代原生 GUI agent 模型,旨在通过类似人类的感知、推理和行动能力与图形用户界面(GUI)进行无缝交互。与传统的模块化框架不同,UI-TARS 在单一的视觉-语言模型(VLM)中集成了所有关键组件——包括感知、...
model scope
 
2025.02.10 更新
 
部署
 
通义千问2.5-7B-Instruct-1M
 
Qwen2.5-7B-Instruct-1M
 
大语言模型
通义千问
参数量 7B
Qwen2.5-1M 是 Qwen2.5 系列模型的长上下文版本,支持最长可达 100 万个 Token 的上下文长度。与 Qwen2.5 128K 版本相比,Qwen2.5-1M 在处理长上下文任务时表现出显著改进的性能,同时保持了其在短任务中的能力。
model scope
 
2025.02.06 更新
 
部署/训练/评测
 
通义千问2.5-14B-Instruct-1M
 
Qwen2.5-14B-Instruct-1M
 
大语言模型
通义千问
参数量 14B
Qwen2.5-1M 是 Qwen2.5 系列模型的长上下文版本,支持最长可达 100 万个 Token 的上下文长度。与 Qwen2.5 128K 版本相比,Qwen2.5-1M 在处理长上下文任务时表现出显著改进的性能,同时保持了其在短任务中的能力。
model scope
 
2025.02.06 更新
 
部署/训练/评测
 
Qwen2-VL-72B-Instruct
 
qwen2-vl-72b-instruct
 
多模态大语言模型
通义千问
参数量 72B
Qwen2-VL 是阿里云研发的大规模视觉语言模型(Large Vision Language Model, LVLM)。Qwen-VL 可以以图像、文本、检测框作为输入,并以文本和检测框作为输出。
model scope
 
2025.01.20 更新
 
部署
 
QVQ-72B-Preview
 
QVQ-72B-Preview
 
多模态大语言模型
通义千问
参数量 72B
QVQ-72B-Preview 是由 Qwen 团队开发的一个实验性研究模型,专注于提升 AI 的推理能力。作为预览版本,它展示了很强的分析能力。
model scope
 
2025.01.13 更新
 
部署
 
QwQ-32B-Preview
 
QwQ-32B-Preview
 
大语言模型
通义千问
参数量 32B
QwQ-32B-Preview 是由 Qwen 团队开发的一个实验性研究模型,专注于提升 AI 的推理能力。作为预览版本,它展示了很强的分析能力。
model scope
 
2025.02.06 更新
 
部署/评测
 
Llama-3.3-70B-Instruct
 
Llama-3.3-70B-Instruct
 
大语言模型
Llama
参数量 70B
Meta 的 Llama3.3-70B 是经过预训练和指令微调的生成式模型,拥有 700 亿参数(仅处理文本输入/输出)。Llama 3.3 针对多语言对话使用场景进行了优化,并在常见的行业基准测试中优于许多现有的开源和封闭聊天模型。
model scope
 
2025.02.06 更新
 
部署/评测
 
通义千问2.5-7B-Instruct
 
qwen2.5-7b-instruct
 
大语言模型
通义千问
参数量 7B
通义实验室最新推出的 Qwen2.5 系列 是 Qwen2 系列 的升级版本。这一系列包括了不同规模的 Base 和 Instruct 模型,分别有 0.5B、7B、7B、32B 和 72B 等。Qwen2.5 系列在长文本、多语言处理能力、人类偏好对齐、序列长度等方面都...
model scope
 
2025.02.06 更新
 
部署/训练/压缩/评测
 
Qwen2.5-VL-3B-Instruct
 
Qwen2.5-VL-3B-Instruct
 
多模态大语言模型
通义千问
参数量 3B
Qwen2.5-VL 是阿里云研发的大规模视觉语言模型(Large Vision Language Model, LVLM)。Qwen-VL 可以以图像、文本、检测框作为输入,并以文本和检测框作为输出。
model scope
 
2025.02.04 更新
 
部署/训练
 
InternLM3-8B-Instruct
 
internlm3-8b-instruct
 
大语言模型
InternLM
参数量 8B
InternLM3 已开源了一个拥有80亿参数的指令模型,名为 InternLM3-8B-Instruct,该模型专为通用用途和高级推理设计。
model scope
 
2025.01.17 更新
 
部署
 
DeepSeek-VL2
 
deepseek-vl2
 
多模态大语言模型
DeepSeek
参数量 27B
DeepSeek-VL2 是一系列先进的专家混合(Mixture-of-Experts, MoE)视觉-语言模型,显著提升了其前身 DeepSeek-VL 的性能。DeepSeek-VL2 在各种任务中展示了卓越的能力,包括但不限于视觉问答、光学字符识别、文档/表格/图表理...
model scope
 
2025.01.17 更新
 
部署
 
UI-TARS-2B-SFT
 
UI-TARS-2B-SFT
 
多模态大语言模型
UI-TARS
参数量 2B
UI-TARS 是一个下一代原生 GUI agent 模型,旨在通过类似人类的感知、推理和行动能力与图形用户界面(GUI)进行无缝交互。与传统的模块化框架不同,UI-TARS 在单一的视觉-语言模型(VLM)中集成了所有关键组件——包括感知、...
model scope
 
2025.02.10 更新
 
部署
 
每页显示:24
1/11到第
免责声明:Model Gallery 内涉及来源于第三方的模型,阿里云不对三方模型的可用性、合规性、安全性承担任何责任,请您在开启使用前查看三方模型许可协议并在许可范围内使用。此外,您应核实第三方模型的备案情况,对于未通过备案的模型,我们建议您仅可基于测试/研究目的使用。因三方模型导致的风险或者纠纷,需您自行承担全部责任。如您发现 Model Gallery 内展示的三方模型任何问题,请及时与我们联系。
 
 
 
posted @ 2025-02-13 14:44  aiplus  阅读(383)  评论(0)    收藏  举报
悬浮按钮示例