首页
学习
活动
专区
工具
TVP
发布

深度学习自然语言处理

专栏作者
1012
文章
1190740
阅读量
161
订阅数
NlPS2022 | 自然语言处理相关论文分类整理
每天给你送来NLP技术干货! ----   © 作者|王晓磊   机构|中国人民大学高瓴人工智能学院  研究方向 | 对话式信息获取 来自 | RUC AI Box 本文从NeurlPS 2022 的2000多篇接收论文中筛选出了与自然语言处理相关的论文200多篇,并按照研究主题进行分类整理,以供参考。 导读: NeurIPS 2022 是 CCF A 类会议,人工智能领域方向的顶级国际会议之一。第36届神经信息处理系统会议将于今年 11 月 28 日至 12 月 9 日举行。官方发布的接收论文列
zenRRan
2022-10-11
1.7K0
全新的多模态预训练范式:微软提出GLIP统一了对象检测和短语定位任务
作者:金克丝 (在读博士) 方向:多模态学习 学校:南京理工大学 「收录情况」:CVPR-2022 「论文链接」:https://arxiv.org/abs/2112.03857 「代码链接」:https://github.com/microsoft/GLIP 问题 方案 主要贡献 Grounded Language Image Pre-training a、Unified Formulation b、Language-Aware Deep Fusion c、Pre-training with Scala
zenRRan
2022-10-10
2.4K0
从985走出、24岁博士毕业,年薪154万的他为何跳楼自杀?
每天给你送来NLP技术干货! ---- 来自:募格学术 他17岁时就成为了高考状元,从浙江大学毕业后,24岁又在美国南加州大学取得了博士学位,之后被赫赫有名的Facebook聘用,年薪高达154万元人民币。如果一个人身上同时拥有着这些标签,你一定会感叹,这不就是人生赢家吗? 可他在38岁这样的年纪,选择从就职的Facebook总部大楼一跃而下,结束了自己不堪重负的生命。38岁,还未过完人生的上半场......观察者网此前报道,陈勤有着别人眼中这么好的工作,为什么选择了这样一种决然的方式来结束自己年轻的生命呢
zenRRan
2022-10-08
7870
NIPS'22 | 重新审视区域视觉特征在基于知识的视觉问答中的作用
作者: 金克丝 (在读博士) 方向: 多模态学习 学校: 南京理工大学 REVIVE: Regional Visual Representation Matters in Knowledge-Based Visual Question Answering 会议:NIPS 2022 论文:REVIVE: Regional Visual Representation Matters in Knowledge-Based Visual Question Answering 链接:https://arxiv.or
zenRRan
2022-09-28
1K0
对预训练语言模型中跨语言迁移影响因素的分析
作者:李加贝 方向:跨模态检索 链接:https://zhuanlan.zhihu.com/p/556921577 ACL'20: Emerging Cross-lingual Structure in Pretrained Language Models 这篇论文发表在ACL’20,作者研究了多语言掩码语言建模问题,并详细研究了影响这些模型对跨语言迁移的几个有效因素。 task: natural language inference (NLI), named entity recognition (NE
zenRRan
2022-09-27
7180
DiffCSE: 将Equivariant Contrastive Learning应用于句子特征学习
知乎:李加贝 方向:跨模态检索 来自:深度学习自然语言处理公众号 虽然不同的数据增强(随机裁剪、颜色抖动、旋转等)被发现对预训练视觉模型至关重要,但这种增强在应用于句子嵌入的对比学习时通常不成功。 之前的工作发现,通过简单的基于dropout的增强来构建正对,比基于同义词或掩码语言模型的单词删除或替换等更复杂的增强效果要好得多。虽然对比学习的训练目标鼓励特征对增强变换是不变的,但对输入的直接增强(如删除、替换)经常会改变句子的意义。也就是说,理想的句子嵌入不应该对这种转换保持不变。 以前的工作只是简单地将
zenRRan
2022-09-02
6560
阿里+中科院提出:将角度margin引入到对比学习目标函数中并建模句子间不同相似程度
作者:李加贝 (浙江工商大学) 方向:跨模态搜索 标题:A Contrastive Framework for Learning Sentence Representations from Pairwise and Triple-wise Perspective in Angular Space -- ACL2022 链接:https://aclanthology.org/2022.acl-long.336v2.pdf 虽然bert等预训练语言模型取得了巨大的成功,但直接使用它们的句子表征往往会导致在语义
zenRRan
2022-08-26
7990
竞赛 | 中国健康信息处理大会(CHIP2022)发布评测任务
每天给你送来NLP技术干货! ---- 来自:中国中文信息学会 第八届中国健康信息处理大会(CHIP2022)是中国中文信息学会医疗健康与生物信息处理专业委员会开展的“以信息处理技术助力探索生命之奥秘、提高健康之质量、提升医疗之水平”为主旨的年度会议。CHIP是中国健康信息处理领域的重要会议,是世界各地学术界、企业界和政府部门的研究人员和从业人员分享创意,进一步推广领域研究成果和经验的重要平台。CHIP2022官网链接为:http://cips-chip.org.cn ,将于2022年10月22-24日,在
zenRRan
2022-07-18
6830
一文了解NLP领域国内外主要学术组织、会议和论文
每天给你送来NLP技术干货! ---- 作者:刘知远老师 链接:https://github.com/zibuyu/research_tao 与老牌学科如物理学、化学等相比,计算机学科还非常年轻,学科体系长期处于剧烈变革之中。作为计算机应用的重要方向,人工智能和自然语言处理自然更不例外,与现实应用紧密相关,技术发展日新月异,常给人今是昨非之感。在这种情况下,传统学术期刊的那种投稿1-2年才能见刊的模式已经赶不上技术革新的速度,年度学术会议显然更符合计算机学科发展和交流的需求,可以看作是一种“小步快跑”的模
zenRRan
2022-04-22
1.6K0
多模态综述 | 一文了解Language-Vision预训练最新进展和新领域
每天给你送来NLP技术干货! ---- 作者:Feilong Chen等  编译:机器之心  编辑:陈萍 一文了解视觉 - 语言预训练最新进展和新领域。 让机器做出与人类相似的反应一直是 AI 研究不懈追求的目标。为了让机器具有感知和思考的能力,研究人员进行了一系列相关研究,如人脸识别、阅读理解和人机对话,通过这些任务训练和评估机器在特定方面的智能。一般来讲,领域专家通过手工构建标准数据集,然后在这些数据集上训练和评估相关模型。然而,由于相关技术的限制,训练模型往往需要大量的标注数据,以获得更好、更强大的模
zenRRan
2022-03-30
1.9K0
Transformer代码完全解读!
本篇正文部分约10000字,分模块解读并实践了Transformer,建议收藏阅读。
zenRRan
2021-10-08
2.5K0
NLP中的自监督表示学习,全是动图,很过瘾的
虽然计算机视觉在自监督学习方面取得了惊人的进展,但在很长一段时间内,自监督学习一直是NLP研究领域的一等公民。语言模型早在90年代就已经存在,甚至在“自我监督学习”这个术语出现之前。2013年的Word2Vec论文推广了这一模式,在许多问题上应用这些自监督的方法,这个领域得到了迅速的发展。
zenRRan
2020-11-19
9750
【CV学习笔记】ROI与泛洪填充
链接:https://zhuanlan.zhihu.com/p/104644924
zenRRan
2020-11-04
5680
医疗NLP相关数据集整理
链接:https://github.com/lrs1353281004/Chinese_medical_NLP
zenRRan
2020-09-22
10.6K0
XLM-RoBERTa: 一种多语言预训练模型
Wisdom in the mind is better than money in the hand.
zenRRan
2020-07-28
2.5K0
【论文解读】UniLM:一种既能阅读又能自动生成的预训练模型
  UniLM是微软研究院在Bert的基础上,最新产出的预训练语言模型,被称为统一预训练语言模型。它可以完成单向、序列到序列和双向预测任务,可以说是结合了AR和AE两种语言模型的优点,Unilm在抽象摘要、生成式问题回答和语言生成数据集的抽样领域取得了最优秀的成绩。
zenRRan
2020-01-14
4.2K0
整理一些计算机基础知识!
为了使不同计算机厂家生产的计算机能够相互通信,以便在更大的范围内建立计算机网络,国际标准化组织(ISO)在1978年提出了“开放系统互联参考模型”,即著名的OSI/RM模型(Open System Interconnection/Reference Model)。它将计算机网络体系结构的通信协议划分为七层,自下而上依次为:物理层(Physics Layer)、数据链路层(Data Link Layer)、网络层(Network Layer)、传输层(Transport Layer)、会话层(Session Layer)、表示层(Presentation Layer)、应用层(Application Layer)。其中第四层完成数据传送服务,上面三层面向用户。
zenRRan
2019-11-20
4470
【长文详解】T5: Text-to-Text Transfer Transformer 阅读笔记
谷歌用一篇诚意满满(财大气粗)的基于实验的综述,试图帮助研究者们「拨开云雾见光明」。论文十分适合该领域的初学者通读,写的十分友好,不过由于涉及到的模型/技术很多,所以遇到不熟悉的部分还是需要自行了解。
zenRRan
2019-11-12
9.4K0
刘知远:NLP研究入门之道(二)走近NLP学术界
地址 https://github.com/zibuyu/research_tao
zenRRan
2019-05-06
3.6K0
没有更多了
社区活动
RAG七天入门训练营
鹅厂大牛手把手带你上手实战
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档