5月30日,华为宣布推出参数规模高达7180亿的全新模型盘古Ultra MoE,这是一个全流程在昇腾AI计算平台上训练的准万亿MoE模型。据悉,盘古团队提出Depth-Scaled Sandwich-Norm(DSSN)稳定架构和TinyInit小初始化的方法,在昇腾平台上实现了超过18TB数据的长期稳定训练。在训练方法上,华为团队首次披露在昇腾CloudMatrix 384超节点上打通大稀疏比MoE强化学习(RL)后训练框架的关键技术,使RL后训练进入超节点集群时代。 你可能会喜欢 马来西亚数字支付继续扩张:本地下沉之外,跨境二维码支付升温2026/04/23 18:55 新世代 BMW i3 长轴距版亮相,国内市场专属非隐藏门把手|2026北京车展2026/04/23 10:52 马斯克:数百万辆特斯拉汽车无法获得完全 FSD 能力2026/04/23 10:21 smart 精灵 #2 概念车登场,续航 300 公里|2026北京车展2026/04/22 20:35