首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

谷歌新AI大语言模型PaLM2训练数据量达3.6万亿个token 为前一代5倍

【谷歌新AI大语言模型PaLM2训练数据量达3.6万亿个token 为前一代5倍】《科创板日报》17日讯,谷歌日前发布最新通用大语言模型PaLM2。据CNBC获取的一份内部文件显示,该模型采用3.6万亿个token数据进行训练。至于去年发布的前一版本PaLM,当时其训练数据约7800亿个token,是最新一代的1/5左右。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230517A078YN00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券