首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

谷歌 PaLM 2 在训练中使用的文本数据是其前身的近五倍

据 CNBC 5 月 17 日消息,谷歌上周宣布的大型语言模型 PaLM 2 使用的训练数据几乎是其前身的五倍,使其能够执行更高级的编码、数学和创意写作任务。根据 CNBC 查看的内部文件,PaLM 2 是谷歌在 I/O 大会上推出的新型通用大型语言模型,它接受了 3.6 万亿个 token 的训练。谷歌之前版本的 PaLM 于 2022 年发布,并接受了 7800 亿个 token 的训练。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230517A03OVR00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券