您当前的位置:首页 > 行业新闻
阿里云一键部署DeepSeek-V3、DeepSeek-R1模型
2025-2-5

DeepSeek-V3是由DeepSeek推出的一款拥有6710亿参数的专家混合(MoE)大语言模型,DeepSeek-R1是基于DeepSeek-V3-Base训练的高性能推理模型。Model Gallery提供了vLLM或BladeLLM加速部署功能,帮助您一键部署DeepSeek-V3和DeepSeek-R1系列模型。

支持的模型列表

 

 

模型

部署方式

DeepSeek-V3

vLLM 加速部署、标准部署

DeepSeek-R1

vLLM 加速部署

DeepSeek-R1-Distill-Qwen-1.5B

BladeLLM(阿里云 PAI 自研高性能推理框架)和 vLLM 加速部署、标准部署

DeepSeek-R1-Distill-Qwen-7B

DeepSeek-R1-Distill-Llama-8B

DeepSeek-R1-Distill-Qwen-14B

DeepSeek-R1-Distill-Qwen-32B

DeepSeek-R1-Distill-Llama-70B

部署模型

  1. 进入Model Gallery页面。

    1. 登录阿里云PAI控制台。

    2. 在顶部左上角根据实际情况选择地域。

    3. 在左侧导航栏选择工作空间列表,单击指定工作空间名称,进入对应工作空间。

    4. 在左侧导航栏选择快速开始 > Model Gallery。

  2. 在Model Gallery页面右侧的模型列表中,找到需要部署的模型卡片,例如DeepSeek-V3模型,单击进入模型详情页面。

  3. 单击右上角部署,选择部署方式和部署资源后,即可一键部署,生成一个 PAI-EAS 服务。

    由于DeepSeek-V3模型较大,部署时间大约需要30分钟。

使用推理服务

部署成功后,在服务页面可以单击“查看调用信息”获取调用的 Endpoint 和 Token。不同部署方式支持的服务调用方式不同,详情请在模型介绍页查看。

如果是标准部署,支持Web应用。在PAI-Model Gallery > 任务管理 > 部署任务中单击已部署的服务名称,在服务详情页面右上角单击查看WEB应用,即可通过ChatLLM WebUI进行实时交互。

API调用,详情请参见如何使用API进行模型推理。

关于成本

  • 由于DeepSeek-V3和DeepSeek-R1模型较大,模型部署费用较高,建议用于正式生产环境。

  • 您还可以选择部署经过知识蒸馏的轻量级模型,这些模型的参数量显著减少,从而大幅降低部署成本。

  • 对于长期使用的模型,您可以采用公共资源组搭配节省计划的方式,或者购买预付费EAS资源组来节约成本。

  • 如果是非生产环境使用,可以在部署时打开竞价模式,但需满足一定条件才能竞价成功,且有资源不稳定的风险。

声明:部分内容、图片来源于互联网,如有侵权请联系删除,QQ:228866015;咨询请点击右侧在线客服,咨询在线QQ客服。

返回 ]

上一篇:服务器上部署deepseek大模型的详细教程
下一篇:阿里云马来西亚服务器适合哪些企业?
1对1专业客服
24小时服务支持
365天无间断服务
5分钟快速响应

《中华人民共和国增值电信业务经营许可证》 ISP证: 粤ICP备07026347号

深圳总部:中国·深圳·南山区·国际创新谷六栋B座10层 7×24小时销售热线:4006388808

香港分部:香港上環蘇杭街49-51號建安商業大廈7樓 香港服务电话:+852 67031102

本网站的域名注册业务代理北京新网数码信息技术有限公司的产品

本网站的域名注册业务代理商中在线科技股份有限公司的产品