据美国消费者新闻与商业频道(CNBC)5月17日消息,谷歌上周宣布的大型语言模型PaLM 2使用的训练数据几乎是其前身的五倍,使其能够执行更高级的编码、数学和创意写作任务。 根据CNBC查看的内部文件,PaLM 2是谷歌在I/O大会上推出的新型通用大型语言模型,它接受了3.6万亿个token的训练。 谷歌之前版本的PaLM于2022年发布,并接受了7800亿个token的训练。 来源:界面 谷歌 你可能会喜欢 比亚迪2025 前四个月累计销量超128万辆2025/05/17 12:13 Take-Two:《GTA 6》延期“是值得的”,其野心和复杂性超越任何前作2025/05/16 17:37 小岛秀夫称他给员工留下了“游戏创意 U 盘”,供他去世后使用2025/05/16 17:29 武汉大学校长张平文:人工智能并不存在“过度使用”的问题2025/05/16 16:40