首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

微软发布 Phi-2 模型:27 亿参数,某些性能指标优于 Llama-2-7B

据 IT 之家 11 月 17 日消息,微软在 Ignite 2023 大会上发布了旗下最小的语言模型 Phi-2,共有 27 亿参数,相比较此前版本有明显提升。Microsoft Research 机器学习基础小组负责人 Sebastien Bubeck 在 Twitter 上发布了“MT-Bench”基准测试的屏幕截图,该基准测试了具有强大语言模型(例如 GPT-4)的大型和小型语言模型的实际功能。根据结果,Phi-2 在某些方面优于 Meta 的 Llama-2-7 B 模型。

据悉,微软于今年 6 月发布 Phi-1,只有 13 亿参数,适用于 QA 问答、聊天格式和代码等等场景。9 月,微软更新发布了 Phi-1.5 版本,同样为 13 亿参数,可以写诗、写电子邮件和故事,以及总结文本。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OUEUJkEXLR8ylzsC5AMrXCqQ0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券