首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

交大ADAPT实验室 | 常识知识论文列表

近年来,常识知识(commonsense knowledge)越发成为NLP领域,乃至多模态,跨学科的研究热点。尽管以BERT为代表的的预训练语言模型已经在实体识别、机器翻译、情感分析等任务上取得了亮眼的表现,它们在面对一些人类可以使用常识轻易解决的问题时仍然表现不佳,面对对抗样本时也极为脆弱。似乎这些模型知识只是学到了一些浅层线索和语义,而与人类的知识体系并不相同。因此,将常识知识融入机器学习中就成为了一个充满前景的解决方案。不过,如何抽取常识知识,如何利用常识知识,乃至如何定义“常识本身”依然是有待研究的难题。 交大ADAPT实验室近年来正将研究兴趣专注于这一领域。在此过程中,我们也将自己的阅读加以筛选、归类和统计,整合成了一份论文列表,在GitHub上开源。

02

Neuro Causal and Symbolic AI. 36th NIPS

理解因果互动是人类认知的核心,因此也是科学、工程、商业和法律的核心追求。发展心理学表明,儿童探索世界的方式与科学家相似,他们会问诸如“如果”这样的问题以及“为什么?”人工智能研究的目标是在机器中复制这些能力。特别是深度学习通过端到端可训练的深度神经网络,为函数逼近带来了强大的工具。这种能力已经被无数应用中的巨大成功所证实。然而,它们缺乏解释能力和推理能力,这被证明是建立类人能力系统的一个障碍。因此,在深度学习中启用因果推理能力对于研究通向人类智能的道路至关重要。神经因果模型的第一步已经存在,并有望实现人工智能系统的愿景,即像现代神经模型一样高效地进行因果推理。类似地,经典的符号方法正在被重新访问和重新整合到当前的系统中,以允许超越纯模式识别的推理能力。因果关系的Pearlian形式化揭示了一个理论上合理和实践上严格的推理层次,作为评估神经符号系统推理能力的有益基准。我们的目标是将对人工智能研究领域(一般机器和深度学习、符号和以对象为中心的方法以及逻辑)的整合感兴趣的研究人员聚集在一起,并以开发下一代人工智能系统为目标,对因果关系进行严格的形式化。

03

机器推理系列文章概览:七大NLP任务最新方法与进展

从规则方法、统计方法到目前的深度学习方法,自然语言处理(NLP)研究一直处于不断发展和进化的状态之中,并在过去五年取得了令人瞩目的成果。对于一个拥有充分标注语料的 NLP 任务(例如机器翻译和自动问答),现有的深度学习方法能够很好地对输入和输出之间的关系进行建模,并在分布相同或类似的测试数据上取得令人满意的效果。然而,一旦测试数据所涉及的知识和领域超出训练数据的范畴之外,大多数模型的效果都会一落千丈。这一现象其实不难理解:人类在从小到大的成长过程中,已经通过各式各样的学习过程掌握了大量的通用知识(例如数学知识、物理知识、世界知识、常识知识等)。这些知识能够帮助人类在学习新技能或遇到新问题时进行推理并举一反三。然而,绝大多数 NLP 模型都不具备这样的知识模型,因此就不能很好地理解和解决新的问题。

02

当法律遭遇人工智能 | 洞见

在当今的法律体系中,法律条文的制定往往跟不上时代前进的脚步,落后的条文(或者判例)有时反而会成为新生事物的制约;部分领域的法律条文或者判例卷帙浩繁,即使是专业的法律人也得耗费数年的学习和实践才能慢慢掌握法条的场景和使用;而即便是这么多的法律条文也难以将现实发生的所有复杂情况一一枚举,因此根据案件的实际情况参考哪些法条和如何定罪与量刑是法官、律师、陪审团等法律程序参与者的任务。这种人工干预有巨大操作和斡旋空间,也就出现了各种州级法院和联邦法院判断不一致的情况—— 明明案件内容是明确的,法律条文是明确的,然而判断却是不清晰的。

01
领券