阿里云一键部署DeepSeek-V3、DeepSeek-R1模型
时间:2025-02-04 00:14 来源:未知 作者:IT
DeepSeek-V3是由DeepSeek推出的一款拥有6710亿参数的专家混合(MoE)大语言模型,DeepSeek-R1是基于DeepSeek-V3-Base训练的高性能推理模型。Model Gallery提供了vLLM或BladeLLM加速部署功能,帮助您一键部署DeepSeek-V3和DeepSeek-R1系列模型。
支持的模型列表
模型
部署方式
DeepSeek-V3
vLLM 加速部署、标准部署
DeepSeek-R1
vLLM 加速部署
DeepSeek-R1-Distill-Qwen-1.5B
BladeLLM(阿里云 PAI 自研高性能推理框架)和 vLLM 加速部署、标准部署
DeepSeek-R1-Distill-Qwen-7B
DeepSeek-R1-Distill-Llama-8B
DeepSeek-R1-Distill-Qwen-14B
DeepSeek-R1-Distill-Qwen-32B
DeepSeek-R1-Distill-Llama-70B
部署模型
-
进入Model Gallery页面。
-
登录PAI控制台。
-
在顶部左上角根据实际情况选择地域。
-
在左侧导航栏选择工作空间列表,单击指定工作空间名称,进入对应工作空间。
-
在左侧导航栏选择快速开始 > Model Gallery。
-
在Model Gallery页面右侧的模型列表中,找到需要部署的模型卡片,例如DeepSeek-V3模型,单击进入模型详情页面。
-
单击右上角部署,选择部署方式和部署资源后,即可一键部署,生成一个 PAI-EAS 服务。

由于DeepSeek-V3模型较大,部署时间大约需要30分钟。
使用推理服务
部署成功后,在服务页面可以单击“查看调用信息”获取调用的 Endpoint 和 Token。不同部署方式支持的服务调用方式不同,详情请在模型介绍页查看。
如果是标准部署,支持Web应用。在PAI-Model Gallery > 任务管理 > 部署任务中单击已部署的服务名称,在服务详情页面右上角单击查看WEB应用,即可通过ChatLLM WebUI进行实时交互。

API调用,详情请参见如何使用API进行模型推理。
(责任编辑:IT)
DeepSeek-V3是由DeepSeek推出的一款拥有6710亿参数的专家混合(MoE)大语言模型,DeepSeek-R1是基于DeepSeek-V3-Base训练的高性能推理模型。Model Gallery提供了vLLM或BladeLLM加速部署功能,帮助您一键部署DeepSeek-V3和DeepSeek-R1系列模型。 支持的模型列表
部署模型
使用推理服务部署成功后,在服务页面可以单击“查看调用信息”获取调用的 Endpoint 和 Token。不同部署方式支持的服务调用方式不同,详情请在模型介绍页查看。 如果是标准部署,支持Web应用。在PAI-Model Gallery > 任务管理 > 部署任务中单击已部署的服务名称,在服务详情页面右上角单击查看WEB应用,即可通过ChatLLM WebUI进行实时交互。
API调用,详情请参见如何使用API进行模型推理。 (责任编辑:IT) |