据美国消费者新闻与商业频道(CNBC)5月17日消息,谷歌上周宣布的大型语言模型PaLM 2使用的训练数据几乎是其前身的五倍,使其能够执行更高级的编码、数学和创意写作任务。 根据CNBC查看的内部文件,PaLM 2是谷歌在I/O大会上推出的新型通用大型语言模型,它接受了3.6万亿个token的训练。 谷歌之前版本的PaLM于2022年发布,并接受了7800亿个token的训练。 来源:界面 谷歌 你可能会喜欢 MiniMax登陆港交所,成史上IPO规模最大的AI大模型公司2026/01/09 13:52 比亚迪全新品牌“领汇”现身工信部,或专供网约车市场2026/01/09 12:06 苹果硬件工程主管或成库克头号接班人2026/01/09 09:51 泰国发布首个半导体长期路线图,计划吸引2.5万亿泰铢投资2026/01/08 17:49