首页
学习
活动
专区
工具
TVP
发布

PaddlePaddle

专栏作者
573
文章
574223
阅读量
73
订阅数
流水线并行技术与飞桨优化实现详解
实践证明,更大的模型在不少场景取得了更好的效果。但随着参数规模的扩大,AI加速卡存储(如GPU显存)容量问题和卡的协同计算问题成为了训练超大模型的瓶颈。流水线并行从模型切分和调度执行两个角度解决了这些问题。本文将从流水线并行介绍、主流实现方式以及一般调优技巧三方面从浅到深讲解流水线并行,希望能帮助您更好地理解和使用流水线并行功能。
用户1386409
2022-08-31
8930
详解Swin Transformer核心实现,经典模型也能快速调优
2020年,基于自注意力机制的Vision Transformer将用于NLP领域的Transformer模型成功地应用到了CV领域的图像分类上,并在ImageNet数据集上得到88.55%的精度。
用户1386409
2022-03-31
8940
大模型应用新范式:统一特征表示优化(UFO)
从深度学习技术被提出以来,一直践行着“think big”的理念。特别是当预训练技术被广泛应用之后,更多的数据结合更大的模型参数量会持续带来模型性能的提升,这条定律不断被近期发布的各种大模型所验证。在刚刚过去的2021年,百度文心大模型中的ERNIE3.0、微软和英伟达联合推出的MT-NLP以及谷歌的Switch Transformer等等,参数量可达千亿甚至万亿。
用户1386409
2022-03-31
4090
数据并行:提升训练吞吐的高效方法 |深度学习分布式训练专题
数据并行是大规模深度学习训练中非常成熟和常用的并行模式。本文将介绍数据并行的原理和主流实现方案,使用数据并行加速训练过程中需要注意的问题,以及如何优化数据并行进一步提高训练速度。希望能帮助用户更好的理解和使用数据并行策略。
用户1386409
2022-01-17
1.6K0
听六小桨讲AI | 第3期:优化器及其三种形式BGD、SGD以及MBGD
大家好,我是助教唐僧。在上期中,主桨人见见为大家讲解了卷积的批量计算以及应用案例,后续还有详解卷积变体的课程,见见老师还在努力开发中,希望大家期待一下。
用户1386409
2021-05-07
6650
十行代码让你的单机“影分身”,分布式训练速度快到飞起
:“哥啊,那我可就说了,我是真的苦啊,现在一个模型动辄好几亿参数,数据集也是大的吓人,兄弟我内存都快被掏空了,实在训练不动了呀。”
用户1386409
2020-04-07
3540
无人车车道线检测挑战赛心得分享
在今年3月份结束的AI Studio无人车车道线检测挑战赛中,参赛选手王林华取得了总决赛第二名的好成绩。赛后选手积极投稿,分享了从备赛到参赛过程中的宝贵经验,获得了额外1000元京东卡的稿费奖励。
用户1386409
2019-07-16
1.4K0
更快更简单|飞桨PaddlePaddle显存分配与优化最佳实践
飞桨(PaddlePaddle)为用户提供技术领先、简单易用、兼顾显存回收与复用的显存优化策略,在Transformer、BERT、DeepLabV3+上Max Batch Size性能优于对标开源框架,在YOLOv3、Mask-RCNN模型上显存性能与对标开源框架持平,有兴趣的同学可以试一下,上一组数据先睹为快。
用户1386409
2019-07-16
9770
飞桨万能转换小工具X2Paddle,教你玩转模型迁移
百度推出飞桨(PaddlePaddle)后,不少开发者开始转向国内的深度学习框架。但是从代码的转移谈何容易,之前的工作重写一遍不太现实,成千上万行代码的手工转换等于是在做一次二次开发。
用户1386409
2019-07-02
8680
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档