4 月 23 日,英特尔发布新一代 AI 工作站平台,推出了英特尔® 至强® 600 工作站处理器与英特尔锐炫™ Pro B70、B65 GPU。

 

新发布的英特尔至强 600 工作站处理器,主要面向专业重负载场景,包括高性能工作站、AI 开发、边缘部署、内容生产和企业级应用。

 

从规格看,至强 600 最高配备 86 个性能核,多线程性能较上代最高提升 61%,睿频最高可达 4.8GHz。对于需要长时间高强度运行的工作站来说,多线程能力直接关系到工程仿真、渲染、编译、数据处理等任务的效率。

 

扩展能力也是这代平台的重点。至强 600 支持 128 条 PCIe 5.0 通道,配合芯片组后,可以为工作站带来更灵活的扩展空间。这意味着企业可以根据不同 AI 和专业负载需求,配置多卡 GPU、高速存储、网络设备或其他加速卡。

 

在 AI 能力上,至强 600 每个核心内置英特尔 AMX 引擎,并新增 FP16 原生支持。英特尔称,这使其 AI 和机器学习性能最高提升 17%;在图像降噪等典型影像处理场景中,速度可提升 4 到 5 倍。对于企业本地 AI 部署来说,这类能力可以降低对外部算力的依赖,也有助于控制总体拥有成本。

 

此外,至强 600 还依托英特尔 vPro 技术体系,支持多种企业级管理特性,包括多密钥内存加密、一键恢复等功能,可适配塔式、机架式和边缘等多种部署形态。也就是说,它不只是面向单台高性能工作站,还试图覆盖企业批量部署和集中运维场景。

英特尔至强 600 工作站处理器和英特尔锐炫 Pro B70/B65 显卡

 

GPU 侧,英特尔发布了锐炫 Pro B70 和 B65。其中,锐炫 Pro B70 基于第二代 Xe2 架构,面向图形渲染、通用并行计算和 AI 加速计算等专业负载。

 

B70 配备 32GB 显存,拥有 32 个 Xe 核心,AI 算力峰值达到 367 TOPS。英特尔强调,32GB 显存可以在 AI 推理场景中支持更大规模模型和更长上下文窗口。对于企业知识库、智能体、多轮问答、RAG 和行业模型推理来说,显存容量往往直接影响模型部署的可用范围。

 

在多用户并发场景中,B70 也被设计用于支持高吞吐量和快速响应,面向企业 AI 应用的本地部署。它支持 SR-IOV 虚拟化,并通过 50 余家 ISV 软件认证,可扩展多卡配置,同时配套 Linux 软件栈,包括 vLLM、oneAPI 和 PyTorch,以满足更多开发和部署需求。

 

同步推出的锐炫 Pro B65 同样搭载 32GB 显存,提供 197 TOPS AI 算力,为专业用户提供更灵活的选择。B70 更强调高性能 AI 推理和多用户并发,B65 则更适合对算力要求相对适中、但同样需要大显存的专业场景。

 

英特尔中国区技术部总经理高宇表示,至强 600 工作站处理器与锐炫 Pro B70 共同为新一代 AI 工作站构筑了更完整的底座,可支撑智能体部署、大模型推理、内容创作和专业图形处理等场景。

 

英特尔希望把 AI 工作站变成企业本地 AI 应用的入口。

 

比如,英特尔与火山引擎共同打造 AgentSphere 一体机联合方案。该方案基于至强 600 和锐炫 Pro B70 提供的本地算力与 32GB 显存,面向多智能体协同场景,强调更高并发、更低时延和更少抖动。标准一体机形态也降低了企业部署和维护门槛,帮助企业打造 AI 员工管理平台。

 

在智能办公场景中,联想智能会议系统 Lenovo SCH-900S 借助锐炫 Pro B70 的 32GB 显存和最高 367 TOPS AI 算力,实现多会议室并发接入和实时 AI 会议纪要生成,提升会议沟通和执行效率。

标签: none

添加新评论