DeepSeek-V4来啦!PAI已支持一键部署,共同迈向百万上下文普惠时代!
DeepSeek-V4 已正式上线并同步开源。 DeepSeek-V4 拥有百万字超长上下文,在 Agent 能力、世界知识和推理性能上均实现国内与开源领域的领先。本次发布共有 Deepseek-V4-Pro 和 Deepseek-V4-Flash 两个版本。PAI 平台现已支持 DeepSeek-V4 全系模型,一键即可部署调用! 除 DeepSeek 外,PAI-Model Gallery 同样支持 Qwen3.6-35B-A3B、Kimi K2.6、Minimax-M2.7、GLM-5.1 等前沿模型的一键部署,并可使用真武 810E 高效支持大模型训练及推理需求! Model Gallery 是阿里云人工智能平台 PAI 的产品组件,它集成了国内外 AI 开源社区中优质的预训练模型,涵盖了 LLM、AIGC、CV、NLP 等各个领域。通过 PAI 对这些模型的适配,用户可以以零代码方式实现从训练到部署再到推理的全过程,简化了模型的开发流程,为开发者和企业用户带来了更快、更高效、更便捷的 AI 开发和应用体验。 PAI-Model Gallery 访问地址: https://pai.console.aliyun.com/#/quick-start/models 阿里云 PAI-Model Gallery 已同步接入 DeepSeek-V4、Kimi K2.6、Minimax-m2.7、GLM-5.1 与 Qwen3.6-35B-A3B 等最新主流模型,提供企业级部署方案。 ⬇️ 立即体验 ⬇️ 2、在模型详情页右上角点击「部署」,选择计算资源后,即可一键完成云上部署。 DeepSeek-V4-Pro: 已支持 vLLM 高性能部署框架,支持单机和分布式部署,需 8*GPU 或以上资源; DeepSeek-V4-Pro-FP8: 已支持 SGLang 高性能部署框架,支持分布式部署,需 16*GPU 资源; Deepseek-V4-Flash: 已支持 vLLM 高性能部署框架,需 8*GPU 资源; Deepseek-V4-Flash-FP8: 已支持 SGLang 高性能部署框架,需 4*GPU 资源; 3、部署成功后,在服务页面可以点击“查看调用信息”获取调用的调用地址和 Token,想了解服务调用方式可以点击模型详情页,查看调用方式说明。 PAI-Model Gallery 持续提供开源社区热门模型的快速部署、微调、蒸馏、评测实践,模型覆盖 Qwen、Wan、DeepSeek、Kimi、MiniMax 等优秀开源模型,同时还提供 Qwen3-235B-A22B-PAI-optimized、Qwen3-Next-80B-A3B-Instruct-FP8-PAI-optimized、DeepSeek-R1-0528-PAI-optimized 等 PAI 优化版本模型,内置了 PAI 优化版的 EP+PD 分离部署等模板,性能更优。 欢迎各位小伙伴持续关注使用 PAI-Model Gallery,平台会不断上线 SOTA 模型,如果您有任何模型需求,也可以联系我们。您可通过搜索钉钉群号(77450028832),加入 PAI-Model Gallery 用户交流群。模型介绍


PAI-Model Gallery 简介
✅零代码一键部署
✅自动适配云资源
✅开箱即用API
✅全流程运维托管
✅企业级安全 数据不出

一键部署 DeepSeek-V4 模型
1、在 PAI-Model Gallery 模型广场找到 DeepSeek-V4-Pro、DeepSeek-V4-Flash 模型,或通过链接直达该模型:






更多模型支持
联系我们