首页
学习
活动
专区
工具
TVP
发布

数据派THU

专栏作者
2140
文章
1954546
阅读量
188
订阅数
最全的损失函数汇总
来源:深度学习爱好者编辑:深度学习自然语言处理 链接:https://blog.csdn.net/shanglianlm/article/details/85019768本文约1500字,建议阅读5分钟tensorflow和pytorch很多都是相似的,这里以pytorch为例。 19种损失函数 1. L1范数损失 L1Loss 计算 output 和 target 之差的绝对值。 torch.nn.L1Loss(reduction='mean') 参数: reduction-三个值,none: 不使用
数据派THU
2022-07-19
3590
OpenAI炼丹秘籍:教你学会训练大型神经网络
来源:新智元本文约3000字,建议阅读5分钟本文详细介绍了一些训练大型神经网络的相关技术及底层原理。 想知道那些超大规模神经网络都是怎么训出来的?OpenAI一篇文章总结:除了显卡要多,算法也很重要! 如今AI的很多进步都要归功于大型神经网络,尤其是大公司和研究机构提供的预训练模型更是推动了下游任务的进步。 但想自己动手训练一个大型神经网络并不简单,首先要面对的就是海量的数据、多机协调和大量GPU的调度工作。 一提到「并行」,冥冥之中就会感觉多了很多隐藏的bug。 最近OpenAI发布了
数据派THU
2022-07-19
3420
中医药领域的问题生成,阿里天池算法大赛Top1
来源:机器学习AI算法工程本文约1700字,建议阅读5分钟任务是中医药领域的问题生成挑战,而问题生成属于NLG中重要的一种应用。 问题生成任务需要我们根据篇章及对应的答案自动生成相应的问题,即“篇章+答案→问题”这样的流程。 训练集由三个字段(篇章、问题、答案)构成,测试集由两个字段(篇章、答案)构成,其中的问题字段需要我们生成。 根据以上分析,我们可以采用Seq2Seq模型来端到端地实现问题生成,而模型的输入为篇章和答案,输出为问题。 文本长度分布 篇章文本长度在100以下的数据较少,长度区间400-
数据派THU
2022-06-24
3980
农作物地块范围识别(图像分割)
来源:机器学习AI算法工程、知乎@Now more本文约5500字,建议阅读15分钟本文为你介绍 以薏仁米作物识别以及产量预测为比赛命题,及对对应获奖的开发算法模型。 农作物的资产盘点与精准产量预测是实现农业精细化管理的核心环节。当前,我国正处于传统农业向现代农业的加速转型期,伴随着农业的转型升级,政府宏观决策、社会各界对农业数据的需求不断增加,现有农业统计信息的时效性与质量,已不足以为市场各主体的有效决策提供科学依据。在农作物资产盘点方面,传统的人工实地调查的方式速度慢、劳动强度大,数据采集质量受主观因素
数据派THU
2022-06-02
1K0
论文回顾:Batch Augmentation,在批次中进行数据扩充可以减少训练时间并提高泛化能力
来源:Deephub Imba本文约1000字,建议阅读5分钟本文介绍了论文Batch Augmentation(BA)的最新实例。 Batch Augmentation(BA):提出使用不同的数据增强在同一批次中复制样本实例。通过批次内的增强在达到相同准确性的前提下减少了SGD 更新次数,还可以提高泛化能力。 Batch Augmentation (BA) 没有 BA 的普通SGD: 一个具有损失函数 ℓ (w, xn, yn) 的模型, {xn, yn} 表示目标对的数据集 ,n 从 1 到 N(是 N
数据派THU
2022-04-18
4280
PyTorch Lightning 全攻略!
来源:极市平台本文约9600字,建议阅读10+分钟本文作者与你分享使用Pytorch-Lightning心得。 写在前面 Pytorch-Lightning这个库我“发现”过两次。第一次发现时,感觉它很重很难学,而且似乎自己也用不上。但是后面随着做的项目开始出现了一些稍微高阶的要求,我发现我总是不断地在相似工程代码上花费大量时间,Debug也是这些代码花的时间最多,而且渐渐产生了一个矛盾之处:如果想要更多更好的功能,如TensorBoard支持,Early Stop,LR Scheduler,分布式训练,
数据派THU
2022-03-24
1.9K0
正则化方法小结
来源:机器学习方法那些事、极市平台本文约2800字,建议阅读9分钟本文为你带来正则化概念及其方法的概述。 导读 本文先对正则化的相关概念进行解释作为基础,后对正则化的方法进行了总结,帮助大家更加清晰的了解正则化方法。  阅读目录 LP范数 L1范数 L2范数 L1范数和L2范数的区别 Dropout Batch Normalization 归一化、标准化 & 正则化 Reference 在总结正则化(Regularization)之前,我们先谈一谈正则化是什么,为什么要正则化。 个人认为正则化这个字眼有点太
数据派THU
2022-03-04
2830
独家 | 使EfficientNet更有效率的三种方法(附链接)
在我们的新论文“Making EfficientNet More Efficient: Exploring Batch-Independent Normalization, Group Convolutions and Reduced Resolution Training”中,
数据派THU
2021-09-08
6520
常用的 Normalization 方法:BN、LN、IN、GN(附代码&链接)
它们都是从激活函数的输入来考虑、做文章的,以不同的方式对激活函数的输入进行 Norm 的。
数据派THU
2019-10-10
1.1K0
没有更多了
社区活动
RAG七天入门训练营
鹅厂大牛手把手带你上手实战
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档