5月30日,华为宣布推出参数规模高达7180亿的全新模型盘古Ultra MoE,这是一个全流程在昇腾AI计算平台上训练的准万亿MoE模型。据悉,盘古团队提出Depth-Scaled Sandwich-Norm(DSSN)稳定架构和TinyInit小初始化的方法,在昇腾平台上实现了超过18TB数据的长期稳定训练。在训练方法上,华为团队首次披露在昇腾CloudMatrix 384超节点上打通大稀疏比MoE强化学习(RL)后训练框架的关键技术,使RL后训练进入超节点集群时代。 华为昇腾 你可能会喜欢 任天堂将《斯普拉遁 3》制作团队纳入麾下2025/11/28 10:06 近半数美国儿童今年圣诞节希望礼物是游戏内货币2025/11/27 16:29 9家新加坡汽车行业企业寻求重组,涉及1.8亿新元债务2025/11/27 15:44 报告:电商和ICT领域正在加速马来西亚的数字化进程2025/11/27 15:41