谷歌 PaLM 2 在训练中使用的文本数据是其前身的近五倍

2023-05-17 12:11 栏目:24H快讯 来源: 查看()

据 CNBC 5 月 17 日消息,谷歌上周宣布的大型语言模型 PaLM 2 使用的训练数据几乎是其前身的五倍,使其能够执行更高级的编码、数学和创意写作任务。根据 CNBC 查看的内部文件,PaLM 2 是谷歌在 I/O 大会上推出的新型通用大型语言模型,它接受了 3.6 万亿个 token 的训练。谷歌之前版本的 PaLM 于 2022 年发布,并接受了 7800 亿个 token 的训练。

微信二维码
售前客服二维码

文章均源于网络收集编辑侵删

提示:仅接受技术开发咨询!

郑重申明:资讯文章为网络收集整理,官方公告以外的资讯内容与本站无关!
NFT开发,NFT交易所开发,DAPP开发 Keywords: NFT开发 NFT交易所开发 DAPP开发