据美国消费者新闻与商业频道(CNBC)5月17日消息,谷歌上周宣布的大型语言模型PaLM 2使用的训练数据几乎是其前身的五倍,使其能够执行更高级的编码、数学和创意写作任务。 根据CNBC查看的内部文件,PaLM 2是谷歌在I/O大会上推出的新型通用大型语言模型,它接受了3.6万亿个token的训练。 谷歌之前版本的PaLM于2022年发布,并接受了7800亿个token的训练。 来源:界面 谷歌 你可能会喜欢 OpenAI、软银、甲骨文牵头带来“星际之门”AI 基础设施投资计划2025/01/22 13:17 玩家投票结果发表:PS5 成索尼史上“最差一代”主机2025/01/22 10:40 吸金力超强,预估《人生切割术》助苹果 Apple TV+ 进账 2 亿美元2025/01/22 10:00 机构:AI将成近70%新加坡企业首要技术投资领域2025/01/21 21:07