介绍【免费下载链接】cann-learning-hubCANN 学习中心仓支持在线互动运行、边学边练提供教程、示例与优化方案一站式助力昇腾开发者快速上手。项目地址: https://gitcode.com/cann/cann-learning-hub这里将介绍CANN在实际业务场景中基于最新技术特性以及实践成果形成的文章博客帮助大家了解和掌握CANN最新的行业技术动态。算子案例名称案例介绍发布时间基于AICPU引擎的HCCL点对点通信算子开发介绍基于 AICPUTS 引擎实现 HCCL 自定义 Send/Recv 点对点通信算子满足 pipeline 并行等灵活通信编排需求。2026.2AICPU Tiling下沉编程AICPU Tiling下沉编程 将 Tiling 计算下沉到 AICPU减少 Host 与 Device 交互及拷贝降低 Host Bound 并提升算子执行效率。2025.12自定义算子开发系列Ascend C RTC即时编译Ascend C RTC 通过运行时按实际 shape 即时编译算子兼顾更优执行性能、更快编译速度和更灵活的算子迭代维护。2025.12基于昇腾的DeepXTrace推理集群快慢卡在线检测DeepXTrace在昇腾设备面向 MOE 推理集群提供轻量级快慢卡在线诊断能力支持分钟级精准定位通信 slow 问题缩短排障时间。2025.12HCCL ReduceScatter精度优化基于开源 ReduceScatter 进行精度增强改造在尽量保持通信性能的同时提升分布式计算结果精度。2025.12transformer仓experimental路径MIX算子开发贡献以矩阵化方式重构 RoPE 并落地首个开源 MIX 算子在单算子和整网层面同时获得可观性能收益。2025.12CrossEntropyLoss与Zloss融合算子开发CrossEntropyLoss和Zloss融合算子通过损失函数融合消除串行小算子开销解决训练尾部瓶颈在 MoE 场景中实现整网端到端 5.2% 效率提升。2025.11算子Kernel直调编程通过 Kernel 直调、异构混合编程和模板化能力简化算子编译部署流程降低开发实现门槛。2025.11TilingKey模板化编程借助 TilingKey 模板化编程统一多场景算子开发与管理同时减少 icache miss 和 scalar 开销提升调用性能。2025.11推理案例名称案例介绍发布时间Overlap Scheduling吞吐优化通过 CPU 调度与 NPU 执行重叠隐藏下发时延提升设备利用率在 LongCat-Flash 场景中带来约 70% 的 TPS 提升。2026.3第三方框架集成npugraph_ex介绍第三方框架如何接入 npugraph_ex 的图编译与编译缓存能力进一步降低模型推理冷启动和端到端耗时。2026.2基于Atlas 900 A3 SuperPoD推理部署Deepseek-R1性能优化实践结合 Omni-Infer 与 CANN 全栈协同优化在满足 TTFT2s、TPOT50ms 的前提下实现 608 QPM 高吞吐推理。2025.12HIXL、Mooncake与vLLM的KV Cache池化与传输通过 HIXL、Mooncake和vLLM实现KV Cache 池化和高性能 D2D/H2H 传输提升前缀缓存命中率降低 TTFT 并减少大集群推理成本。2025.12HIXL在RL推理中的长尾时延优化利用 HIXL 支撑 RL 推理阶段的 PD 分离与高效数据传输缓解长尾拖慢问题并提升千卡集群资源利用率。2025.12基于Atlas 900 A3 SuperPoD的LongCat-Flash模型推理性能优化实践结合多流并发、控核与 SuperKernel 等优化手段显著提升 LongCat-Flash 推理效率并将 TPOT 优化到 10ms。2025.12CANN npugraph_ex图模式优化npugraph_ex基于 aclGraph 图捕获与重放能力降低 Host 下发开销并提供亲和 NPU 的图优化帮助推理框架获得更低时延。2025.12基于torch_npu的IPC特性介绍IPC支持跨进程直接共享设备内存减少显式拷贝开销在分布式训练和强化学习场景中提升通信效率并节省显存。2025.12TorchAir自定义FX Pass用自定义 FX Pass 将多流并行等优化从手动脚本改造成自动图变换减少重复适配代码并提升开发效率。2025.12SGLang、Mooncake与CANN HIXL的PD分离D2D部署打通 SGLang、Mooncake 与 HIXL 的协同链路加速 PD 分离 D2D 特性落地提升 KV Cache 传输效率与部署灵活性。2025.11SuperKernel技术综述通过将整网重新编译为大算子减少调度与访存开销在现有优化基础上进一步带来 10% 到 20% 的性能提升。2025.11vLLM-Ascend推理优化vLLM-Ascend 基于 PagedAttention 和昇腾适配优化 KV Cache 管理与推理执行提升大模型服务吞吐量并降低内存浪费。2025.11训练案例名称案例介绍发布时间基于昇腾的AReaL全异步RL训练基于全异步 RL、Single Controller 和解耦式 Agentic RL 架构提升训练效率与可靠性并完成昇腾平台开箱即用适配。2026.3大模型训练故障恢复方案FlashRecoveryFlashRecovery 面向大模型长周期训练降低故障恢复成本减少检查点 I/O 与回滚重算损失让训练任务更快恢复到正常执行。2025.12基于昇腾的SAM投机解码长序列强化学习训练以无辅助模型的 SAM 投机解码降低 RL 训练 Rollout 延迟在保证精度无损前提下带来超过 35% 的长尾阶段加速收益。2025.12【免费下载链接】cann-learning-hubCANN 学习中心仓支持在线互动运行、边学边练提供教程、示例与优化方案一站式助力昇腾开发者快速上手。项目地址: https://gitcode.com/cann/cann-learning-hub创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考