专栏首页Datawhale专栏哈工大车万翔教授:NLPer的核心竞争力是什么?

哈工大车万翔教授:NLPer的核心竞争力是什么?

【导读】自然语言处理是当前人工智能研究的重要方向之一,那么从事NLP的人员如何能够不断升级、构建核心竞争力?请看哈工大SCIR车万翔教授受邀在学生研讨会上作的一场特邀报告,报告题目为《NLPer的核心竞争力是什么?》。

在本次报告中,车万翔教授强调,NLPer需要有发现问题与解决问题的能力,并且需要对基本概念理解得更准确、对研究有更好的品味以及对数据更敏感。此外,车万翔教授还提到,尽管深度模型的能力越来越强,我们也不能忽视结构的重要性。

车万翔博士,哈尔滨工业大学计算机学院教授,博士生导师,斯坦福大学访问学者,合作导师Christopher Manning教授。现任中国中文信息学会计算语言学专业委员会委员、青年工作委员会副主任;中国计算机学会高级会员、曾任YOCSEF哈尔滨主席(2016-2017年度)。在ACL、EMNLP、AAAI、IJCAI等国内外高水平期刊和会议上发表学术论文50余篇,其中AAAI 2013年的文章获得了最佳论文提名奖,论文累计被引用2,500余次(Google Scholar数据),H-index值为27。出版教材 2 部,译著 2 部。目前承担国家自然科学基金、973等多项科研项目。负责研发的语言技术平台(LTP)已被600余家单位共享,提供的在线“语言云”服务已有用户1万余人,并授权给百度、腾讯、华为等公司使用。2018、2019连续两年获CoNLL国际评测第1名。2015、2016连续两年获Google Focused Research Award(谷歌专注研究奖);2016年,获黑龙江省科技进步一等奖(排名第2);2012年,获黑龙江省技术发明奖二等奖(排名第2);2010年获中国中文信息学会“钱伟长”中文信息处理科学技术奖一等奖(排名第2)、首届汉王青年创新奖(个人)等多项奖励。2017年,所主讲的MOOC课程《高级语言程序设计(Python)》获国家精品在线开放课程。

个人主页:

http://ir.hit.edu.cn/~car/

PPT下载地址:

http://ir.hit.edu.cn/~car/talks/core_competency_of_nlper.pdf

本文分享自微信公众号 - Datawhale(Datawhale)

原文出处及转载信息见文内详细说明,如有侵权,请联系 yunjia_community@tencent.com 删除。

原始发表时间:2019-11-27

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • BERT代码实现及解读

    $$ \text{Attention}(\boldsymbol{Q},\boldsymbol{K},\boldsymbol{V}) = \text{soft...

    机械视角
  • ​金融风控的护航员——聊聊ERNIE在度小满用户风控的应用

    央行发布的《2018年第三季度支付体系运行总体情况》显示,我国信用卡逾期半年未偿信贷总额880.98亿元,环比增长16.43%。

    用户1386409
  • 2019最佳预训练模型:非暴力美学,1/4算力超越RoBERTa

    BERT 推出这一年来,除了 XLNet,其他的改进都没带来太多惊喜,无非是越堆越大的模型和数据,以及动辄 1024 块 TPU,让工程师们不知道如何落地。

    机器之心
  • 清华自然语言处理科学家孙茂松:深度学习碰壁之后,我们还能做什么?

    10 月 31 日,北京创建全球人工智能学术和创新最优生态的标志性学术活动“智源大会”在国家会议中心召开。

    AI科技评论
  • 7 papers|EMNLP 2019最佳论文;Facebook语言模型XLM-R取得SOTA结果;最优学习的85%规则

    论文 1:Specializing Word Embeddings(for Parsing)by Information Bottleneck

    机器之心
  • 绝对干货!NLP预训练模型:从transformer到albert

    语言模型是机器理解人类语言的途径,17年的transformer是语言模型摆脱rnn,lstm建模的一次尝试,后续的bert则是大力出奇迹的代表,用更大的模型和...

    新智元
  • ELECTRA:超越BERT,19年最佳NLP预训练模型

    BERT推出这一年来,除了XLNet,其他的改进都没带来太多惊喜,无非是越堆越大的模型和数据,以及动辄1024块TPU,让工程师们不知道如何落地。

    大数据文摘
  • 斯坦福大学 EMNLP 2019 论文:回答大规模开放领域复杂问题

    从搜索引擎,一直到自动问答系统,自然语言处理(NLP)系统的发展已经极大地增强了我们获取文本信息的能力,帮我们节省了很多用来记忆和查找的时间精力。今天,每当我们...

    AI科技评论
  • ELECTRA:超越BERT,19年最佳NLP预训练模型

    BERT推出这一年来,除了XLNet,其他的改进都没带来太多惊喜,无非是越堆越大的模型和数据,以及动辄1024块TPU,让工程师们不知道如何落地。

    新智元
  • 中文预训练模型ZEN开源,效果领域内最佳,创新工场港科大出品

    而且现在,ZEN开源了。源代码和训练好的模型均已发布,未来还承诺会有更大数据和其他语言版本迭代上新。

    代码医生工作室

扫码关注云+社区

领取腾讯云代金券