5月30日,华为宣布推出参数规模高达7180亿的全新模型盘古Ultra MoE,这是一个全流程在昇腾AI计算平台上训练的准万亿MoE模型。据悉,盘古团队提出Depth-Scaled Sandwich-Norm(DSSN)稳定架构和TinyInit小初始化的方法,在昇腾平台上实现了超过18TB数据的长期稳定训练。在训练方法上,华为团队首次披露在昇腾CloudMatrix 384超节点上打通大稀疏比MoE强化学习(RL)后训练框架的关键技术,使RL后训练进入超节点集群时代。 华为昇腾 你可能会喜欢 华纳兄弟拒绝派拉蒙 1084 亿敌意收购要约,确认拥抱 Netflix2025/12/18 09:28 新加坡海事电气化初创公司Pyxis获得1300万新元融资2025/12/17 18:04 全球首个治疗药物成瘾的侵入式脑机接口产品在中国获批2025/12/17 10:23 苹果“大扩容”!计划到 2027 年秋季推出至少 7 款新 iPhone 机型2025/12/17 10:05