AI网络通信热度飙升,Upscale AI获大额融资革新算力基础设施
AI网络通信热度飙升最近一段时间AI网络通信领域越来越热。一方面硅谷的AI网络通信初创公司们频频获得大额融资另一方面二级市场的AI网络通信尤其是光通信公司股价也快速增长。需求推动AI网络通信发展为什么AI网络通信的热度在提升本质还是需求在推动模型尺寸越来越大Token消耗越来越多算力出现紧缺。而要从算力端以较低成本榨出更多算力就得从底层技术去想办法。加快芯片与芯片间的通信加快节点与节点之间的通信提高整个算力基础设施的效率就是一条正在被验证的路。Upscale AI获大额融资一家叫Upscale AI近期融资很猛。它在2025年9月获得1亿美元种子轮融资由Mayfield与Maverick Silicon共同领投StepStone Group、Celesta Capital、Xora、Qualcomm Ventures、Cota Capital、MVP Ventures及Stanford University参投。2026年1月又获得2亿美元A轮融资由Tiger Global、Premji Invest和Xora Innovation领投Maverick Silicon、StepStone Group、Mayfield、Prosperity7 Ventures、Intel Capital和Qualcomm Ventures参投。最近又有消息称它在洽谈1.8亿至2亿美元的新一轮融资。模型创新倒逼AI算力网络创新大参数MoE长上下文模型创新倒逼AI算力网络创新。一个创立不到一年的企业为什么能接连获得大额融资这与它的创始团队有很大关系。事实上Upscale AI是从Auradine孵化出来的Auradine本身就是一家新兴的AI基础设施公司它现在已改名Velaura AI致力于为云端、边缘及实体人工智能应用提供经过验证的突破性超低功耗计算方案。Upscale AI的创始团队Upscale AI的联合创始人和CEO Barun Kar此前是Auradine的COO而联合创始人及执行董事长Rajiv K此前是Auradine的CEO现在也是Velaura AI的CEOUpscale AI的CTO Puneet Agarwal此前在博通工作十年还在Marvell当过数据中心部门的CTO。Barun Kar和Rajiv K在前一次创业之前也都有巨型企业的工作经历可以说这是一支在行业里浸淫多年具有丰富经验的团队。AI网络通信的重要性AI网络通信为什么重要这要从技术底层开始说起。AI计算负载的特点是高度同步。大规模模型训练、MoE架构以及分布式推理等现代工作负载都会给网络带来极高的同步压力。训练过程中模型的参数梯度需要以高度同步的波次在成千上万张GPU之间传递推理计算则会产生大规模扇出流量同时对时延提出极其严苛的要求。网络一旦跟不上GPU就会停转等待时延持续攀升算力集群的效率随之崩塌。这是架构错配不是调优可以解决的。传统网络的局限性传统的网络追求通用性而兼容多种负载引入的复杂性如今在AI场景中反而变成了阻力。确定性通信以及GPU集合通信所要求的强同步正在超越传统网络的设计极限。AI算力集群需要的网络必须能够在大规模环境下支持确定性、同步化、高吞吐的通信。AI网络必须从底层重新构建围绕Scale - Up与Scale - Out连接的真实需求来设计。模型对AI算力集群网络的压力进一步细化拆解就落到了模型上。现在模型的两个特点让它对AI算力集群网络的压力特别大。一个是模型的参数规模指数提升另一个是长上下文和Cot的持续进化。以刚发布的DeepSeek V4 pro为例它的尺寸参数来到1.6T上下文达到1M。1.6T的尺寸就需要1.6T内存一块卡的内存肯定不够需要切分到大量加速器上运行而芯片间通信也因此迅速成为瓶颈。超长上下文窗口会让KV cache的体量急剧膨胀也会超过单张GPU的HBM内存容量。这些都对内存容量和通信带宽形成双重挤压。全栈革新AI算力基础设施不是单纯的芯片级创新而是全栈革新。要完成这种大参数和长上下文窗口模型的训练和流畅推理真正的解决办法是重定义“计算边界”让更多的GPU能够以超高速网络连接拥有亚微秒级时延和高吞吐集合通信能力能够把它们看成一个“超级GPU”于是机架这种形式就出现了。AI基础设施的连接层级以NVIDIA的NVL72为为例它不再把72张GPU视为彼此独立的设备而是将其作为一个具备内存语义的一致性机器来运行内部NVLink带宽达130TB/s。在这里就引入了AI基础设施的两个连接层级机架级GPU互连Scale - Up和集群级网络结构互连Scale - Out。这两个层面必须协同运作才能让成千上万张GPU像一个统一的分布式计算引擎那样高效工作。Upscale AI的网络架构针对AI基础设施的两个连接层级Upscale AI开发了一套为AI定制的网络架构。对于机架级AI互连Scale - Up它有SkyHammer芯片架构对于集群级AI网络结构Scale - Out它有Open Ethernet。SkyHammer芯片架构SkyHammer是一套为突破Scale - Up AI网络瓶颈而打造的芯片架构它基于开放标准目标是在超大规模下实现确定性时延、极致带宽与可预测性能使GPU和XPU能够作为一个高度同步的计算引擎协同运行。其特点之一——确定性时延代表着数据在机架内部各组件之间传输所需的时间可以被高度可预测地控制。Open Ethernet网络结构Open Ethernet主要针对集群级AI网络结构Scale - Out。在集群层面AI系统需要的是开放性、互操作性以及海量带宽。Upscale AI打造了针对AI优化的Open Ethernet网络结构该系统将基于NVIDIA Spectrum - X Ethernet交换芯片以及SONiC网络操作系统构建并提供端到端支持。通过将ASIC原生遥测能力、确定性无损以太网行为以及行业标准化网络工作流加以整合系统能够在大规模场景下提供可预测的性能、简化运维以及高可靠性。简而言之它可将数千张GPU连接为一张统一的高性能网络支撑分布式训练与大规模推理。Upscale AI的合作与优化为了这个项目Upscale AI加入NVIDIA Partner Network并正与NVIDIA及其生态伙伴紧密合作围绕参考架构与经验证设计展开协同以加速大规模AI数据中心网络的部署。可以看到Upscale AI做的事情没有止步于打造一款更快的网络芯片而是在芯片、系统与软件之间实现紧密耦合。要运行大型AI计算集群必须持续掌握整个网络结构中的拥塞状况、同步行为以及GPU利用率。这包括高性能RDMA网络、自适应拥塞管理、面向GPU的遥测与可观测性、覆盖整个网络结构的实时运维可视性。Upscale AI会在这些环节都进行优化构建现代AI计算集群运行所必需的确定性网络基础。AI算力基础设施的创业机会模型需求与AI算力基础设施的错配诞生了多方面的创业机会。AI算力基础设施仍然有巨大的发展潜力。事实上它可能会长期处于与AI软件尤其是模型交替创新的状态。当模型的架构进行了创新AI算力基础设施的硬件或软件出现结构性错配后新的机会就出现了。创业公司案例现在的情况就是这样MoE架构超大参数超长的上下文窗口Agent对于Token的渴求这些因素的合力让AI算力处于供不应求状态同时也让AI算力基础设施有了创新的机会。在算力芯片层面最近半年我们就关注到了Unconventional AI融资4.75亿美元MatX融资5亿美元在AI赋能芯片设计领域关注到了Ricursive融资3亿美元、Cognichip融资6000万美元当然还有AI数据中心的网络互联例如本文中的Upscale AI 已经融资3亿美元还计划融2亿Eridu融资2亿美元、Ethernovia融资9000万美元。中国AI发展现状中国的开源AI模型已经实现了全球领先尤其是最近发布的DeepSeek V4在AI基础设施层面中国暂时还处于追赶状态但这也代表了巨大的创新空间观察中国的创投市场大量的创新公司已经开始涌现而有一部分已经初步获得成功。