首页
学习
活动
专区
工具
TVP
发布

数据派THU

专栏作者
2139
文章
1934944
阅读量
188
订阅数
张俊林:由ChatGPT反思大语言模型(LLM)的技术精要
来源:Datawhale 夕小瑶的卖萌屋本文约28000字,建议阅读25分钟本文介绍了ChatGPT反思大语言模型。 ChatGPT出现后惊喜或惊醒了很多人。惊喜是因为没想到大型语言模型(LLM,Large Language Model)效果能好成这样;惊醒是顿悟到我们对LLM的认知及发展理念,距离世界最先进的想法,差得有点远。我属于既惊喜又惊醒的那一批,也是典型的中国人,中国人善于自我反思,于是开始反思,而这篇文章正是反思的结果。 实话实说,国内在LLM模型相关技术方面,此刻,距离最先进技术的差距进一步
数据派THU
2023-02-23
7700
独家 | 使EfficientNet更有效率的三种方法(附链接)
在我们的新论文“Making EfficientNet More Efficient: Exploring Batch-Independent Normalization, Group Convolutions and Reduced Resolution Training”中,
数据派THU
2021-09-08
6420
修改代码150万行!Apache Flink 1.9.0做了这些重大修改!(附链接)
[ 导读 ] 8月22日,Apache Flink 1.9.0 正式发布。早在今年1月,阿里便宣布将内部过去几年打磨的大数据处理引擎Blink进行开源并向 Apache Flink 贡献代码。此次版本在结构上有重大变更,修改代码达150万行,接下来,我们一起梳理 Flink 1.9.0 中非常值得关注的重要功能与特性。
数据派THU
2019-08-28
7910
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档