首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    任务式对话中的自然语言理解

    导读:随着人工智能技术的发展,智能对话的应用场景越来越多,目前已经成为了研究的热点。天猫精灵,小度小度,腾讯叮当,这些智能助手都是智能对话在业界的应用。智能助手的对话方式可分为三种:任务式对话 ( 用户输入指令,智能助手执行指令任务 ),问答式对话 ( 用户输入问题,智能助手回复答案 ),闲聊式对话。那么智能助手如何理解用户的指令,最终完成指令任务呢?任务型语音对话的处理流程主要包括:语音识别,自然语言理解,对话管理、对话生成,语音合成 ( 图1 )。要理解用户的指令,就需要对用户输入进行自然语言理解,也就是对转换为文本的用户输入进行分析,得到用户的意图和关键信息。在图1中,这一部分由绿色虚线圈出,主要包括领域 ( domain )、意图 ( intent ) 和槽 ( slot ) 的预测。本文主要介绍这一部分,即领域识别、意图识别和槽抽取的主流方法和研究进展。

    04

    ACL2022 | 清华大学、DeepMind等指出现有小样本学习方法并不稳定有效,提出评价框架

    来源:机器之心本文约2200字,建议阅读5分钟本文介绍了清华大学、DeepMind等团队在小样本学习方法的最新进展。 以 GPT-3 为代表的预训练语言模型的发展,引发对小样本自然语言理解任务的极大关注。各种方法不断发展并展现出日渐强大的小样本自然语言理解性能。然而,来自清华大学、DeepMind 等团队的研究者近期的一项研究指出:相同基准再评估结果表明,现有小样本学习方法并不足够稳定有效,小样本自然语言理解发展尚面临巨大挑战! 评价准则的差异极大阻碍了已有小样本学习方法基于统一的标准公平比较,也无法客观评

    01

    ACL2022 | 清华大学、DeepMind等指出现有小样本学习方法并不稳定有效,提出评价框架

    机器之心专栏 清华大学、DeepMind等 以 GPT-3 为代表的预训练语言模型的发展,引发对小样本自然语言理解任务的极大关注。各种方法不断发展并展现出日渐强大的小样本自然语言理解性能。然而,来自清华大学、DeepMind 等团队的研究者近期的一项研究指出:相同基准再评估结果表明,现有小样本学习方法并不足够稳定有效,小样本自然语言理解发展尚面临巨大挑战! 评价准则的差异极大阻碍了已有小样本学习方法基于统一的标准公平比较,也无法客观评价该领域的真实进展。近期,来自清华大学、DeepMind 等团队研究者在论

    03

    2019腾讯犀牛鸟精英人才培养计划课题介绍(七)—自然语言处理

    “ 精英人才培养计划是一项校企联合人才培养项目,入选学生将受到业界顶尖技术团队与高校导师的联合指导及培养。培养期间,学生将获得3个月以上到访腾讯开展科研访问的机会,基于真实产业问题及海量数据,验证学术理论、加速成果应用转化、开阔研究视野。同时项目组将引进沟通技巧、商业分析、创新思维等定制课程,定期举办线上线下交流活动,全面提升学生综合素质。入选学生还将获得线上实名社群平台“十分精英圈”的在线访问权限,结识志同道合的科研伙伴,获取业界信息及资源。 ” 今年共有10大方向 81个子课题供大家选择 总有一

    01

    每日论文速递 | 【ICLR'24 Oral】LoftQ: 更好地将LLM量化与LoRA微调结合

    摘要:量化是为服务大语言模型(LLMs)不可或缺的技术,最近已经应用到LoRA微调中。在这项工作中,我们关注的是在一个预训练模型上同时应用量化和LoRA微调的情景。在这种情况下,通常会观察到在下游任务性能上的一致差距,即在完全微调和量化加LoRA微调方法之间。为了应对这一问题,我们提出了LoftQ(LoRA微调感知量化),这是一个新颖的量化框架,可以同时对LLM进行量化并找到LoRA微调的适当低秩初始化。这种初始化缓解了量化和全精度模型之间的差异,并显著提高了在下游任务中的泛化性能。我们在自然语言理解、问答、摘要和自然语言生成任务上评估了我们的方法。实验证明我们的方法非常有效,并在具有挑战性的2比特和2/4比特混合精度区域中优于现有的量化方法。

    01
    领券