> 其它学习 > DeepSeek >

阿里云一键部署DeepSeek-V3、DeepSeek-R1模型

DeepSeek-V3是由DeepSeek推出的一款拥有6710亿参数的专家混合(MoE)大语言模型,DeepSeek-R1是基于DeepSeek-V3-Base训练的高性能推理模型。Model Gallery提供了vLLM或BladeLLM加速部署功能,帮助您一键部署DeepSeek-V3和DeepSeek-R1系列模型。

支持的模型列表

模型

部署方式

DeepSeek-V3

vLLM 加速部署、标准部署

DeepSeek-R1

vLLM 加速部署

DeepSeek-R1-Distill-Qwen-1.5B

BladeLLM(阿里云 PAI 自研高性能推理框架)和 vLLM 加速部署、标准部署

DeepSeek-R1-Distill-Qwen-7B

DeepSeek-R1-Distill-Llama-8B

DeepSeek-R1-Distill-Qwen-14B

DeepSeek-R1-Distill-Qwen-32B

DeepSeek-R1-Distill-Llama-70B

部署模型

  1. 进入Model Gallery页面。

    1. 登录PAI控制台。

    2. 在顶部左上角根据实际情况选择地域。

    3. 在左侧导航栏选择工作空间列表,单击指定工作空间名称,进入对应工作空间。

    4. 在左侧导航栏选择快速开始 > Model Gallery

  2. 在Model Gallery页面右侧的模型列表中,找到需要部署的模型卡片,例如DeepSeek-V3模型,单击进入模型详情页面。

  3. 单击右上角部署,选择部署方式和部署资源后,即可一键部署,生成一个 PAI-EAS 服务。

    image

    由于DeepSeek-V3模型较大,部署时间大约需要30分钟。

使用推理服务

部署成功后,在服务页面可以单击“查看调用信息”获取调用的 Endpoint 和 Token。不同部署方式支持的服务调用方式不同,详情请在模型介绍页查看。

如果是标准部署,支持Web应用。在PAI-Model Gallery > 任务管理 > 部署任务中单击已部署的服务名称,在服务详情页面右上角单击查看WEB应用,即可通过ChatLLM WebUI进行实时交互。

image

API调用,详情请参见如何使用API进行模型推理。


(责任编辑:IT)