首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

王小川回应 LLaMa 套壳争议:团队知道从哪里拿最高质量的数据

据36氪报道,在极客公园 AGI Playground 论坛上,王小川回应了外界对百川智能开源模型 Baichuan-7B 套壳 Meta 开源模型 LLaMa 的质疑。他提到,搜索公司干了 20 年,团队对语言数据有深入的理解,知道取得高质量语料的渠道,模型迭代速度很快,“国内开源模型的能力目前已经可以达到 LLaMa”。同时他预告,百川智能在未来几个月内将首次发布闭源大模型。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OCMg0OELhKfMROFL_lOzqAYw0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券