首页
学习
活动
专区
工具
TVP
发布

程序生活

专栏作者
437
文章
468844
阅读量
57
订阅数
文本分类还停留在BERT?对偶比学习框架也太强了
论文简介:对偶对比学习:如何将对比学习用于有监督文本分类 论文标题:Dual Contrastive Learning: Text Classification via Label-Aware Data Augmentation 论文链接:https://arxiv.org/abs/2201.08702 代码链接:https://github.com/hiyouga/dual-contrastive-learning 论文作者:{Qianben Chen}
致Great
2022-03-16
9570
Kaggle系列-Mechanisms of Action (MoA) Prediction[表格数据多标签]第一名方案
连接图是麻省理工学院和哈佛大学广泛研究所、哈佛大学创新科学实验室(LISH)和美国国立卫生研究院共同基金综合网络细胞特征库(LINCS)的一个项目,它提出了这一挑战,目标是通过改进MoA预测算法来推进药物开发。
致Great
2021-01-18
1.4K0
一份半监督学习的指南-伪标签学习
在ML中,有3种机器学习方法-监督学习、无监督学习和强化学习技术。 我们所知道的监督学习是指数据带有标签的情况, 无监督学习是仅存在数据而没有标签的情况,强化学习算法的思路非常简单,以游戏为例,如果在游戏中采取某种策略可以取得较高的得分,那么就进一步“强化”这种策略,以期继续取得较好的结果。
致Great
2020-12-16
1.2K0
没有更多了
社区活动
RAG七天入门训练营
鹅厂大牛手把手带你上手实战
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档