据美国消费者新闻与商业频道(CNBC)5月17日消息,谷歌上周宣布的大型语言模型PaLM 2使用的训练数据几乎是其前身的五倍,使其能够执行更高级的编码、数学和创意写作任务。 根据CNBC查看的内部文件,PaLM 2是谷歌在I/O大会上推出的新型通用大型语言模型,它接受了3.6万亿个token的训练。 谷歌之前版本的PaLM于2022年发布,并接受了7800亿个token的训练。 来源:界面 谷歌 你可能会喜欢 全球首个治疗药物成瘾的侵入式脑机接口产品在中国获批2025/12/17 10:23 苹果“大扩容”!计划到 2027 年秋季推出至少 7 款新 iPhone 机型2025/12/17 10:05 关于越南电商生态,行业发展没能跟上卖家速度2025/12/16 17:11 韦氏词典公布 2025 年度词汇:AI 恶劣内容代名词——“slop”2025/12/16 16:33