LLVM编译快50%、向量数据库性能高70% 英特尔与SambaNova异构AI推理方案下半年落地

倚天百科 百科资讯 2

4月10日消息,英特尔公司与SambaNova联合推出一款面向量产的异构AI推理架构。

该方案将AI推理流程拆分为三个阶段:AI GPU或加速器负责预填充并构建键值缓存,SambaNova SN50可重构数据流单元(RDU)负责解码与标记生成,英特尔至强6处理器负责智能体工具调用、代码执行及跨硬件任务编排。

平台计划于2026年下半年面向企业及云服务商正式推出。

相比基于Arm架构的服务器CPU,至强6在LLVM编译任务中速度提升超过50%;相比AMD EPYC,至强6在向量数据库工作负载中性能提升高达70%。

两家公司表示,这些性能增益旨在缩短编码智能体及类似应用的端到端开发周期。

该方案对标英伟达针对Rubin平台设计的预填充与解码分离策略(Rubin CPX搭配Rubin GPU),但Rubin CPX尚未上市。相比之下,英特尔与SambaNova的方案依赖至强6处理器承担编排角色,而非英伟达产品。

英特尔数据中心事业部表示,该异构架构可直接部署于现有风冷数据中心,无需改造基础设施。两家公司此前已于2026年2月宣布多年期战略合作,此次方案是双方合作的首个量产级落地产品。