据美国消费者新闻与商业频道(CNBC)5月17日消息,谷歌上周宣布的大型语言模型PaLM 2使用的训练数据几乎是其前身的五倍,使其能够执行更高级的编码、数学和创意写作任务。 根据CNBC查看的内部文件,PaLM 2是谷歌在I/O大会上推出的新型通用大型语言模型,它接受了3.6万亿个token的训练。 谷歌之前版本的PaLM于2022年发布,并接受了7800亿个token的训练。 来源:界面 谷歌 你可能会喜欢 黄仁勋表示后悔没有在 xAI 上投入更多资金2025/10/09 11:27 苹果仅改 20 字节代码就解决 iPhone 4 “天线门”?15 年谜团终被揭开2025/10/09 11:03 收购 ABB 机器人部门,软银斥资 54 亿美元押注 AI 机器人2025/10/09 10:47 亚马逊药房自助服务终端将于12月在洛杉矶的One Medical诊所投入使用2025/10/09 10:36