当地时间22日,OpenAI的创始人山姆·奥特曼、总裁格雷格·布罗克曼和首席科学家伊利亚·苏茨克沃通过公司博客联合撰文,称人类必须缓和当今人工智能技术的风险,超级智能将需要被特殊对待和协调。他们在题为《超级智能的治理》的文章中写道,“我们最终可能需要类似于IAEA(国际原子能机构)的东西来进行超级智能方面的努力;任何超过一定能力(或资源,如计算)门槛的努力都需要接受国际权威机构的检查,要求进行审计等。” 来源:界面 OpenAI 你可能会喜欢 华纳兄弟拒绝派拉蒙 1084 亿敌意收购要约,确认拥抱 Netflix2025/12/18 09:28 新加坡海事电气化初创公司Pyxis获得1300万新元融资2025/12/17 18:04 全球首个治疗药物成瘾的侵入式脑机接口产品在中国获批2025/12/17 10:23 苹果“大扩容”!计划到 2027 年秋季推出至少 7 款新 iPhone 机型2025/12/17 10:05