首页
学习
活动
专区
工具
TVP
发布

yhlin's blog

专栏作者
40
文章
31613
阅读量
12
订阅数
【论文笔记】2020-ACL-Neural Dialogue State Tracking with Temporally Expressive Networks
​ 现有的 DST 模型要么 忽略跨对话回合的时间特征依赖关系 ,要么 未能在对话中显式地建模时间状态依赖关系。
yhlin
2023-03-23
7130
【论文笔记】A Graph-based and Copy-augmented Multi-domain Dialogue State Tracking
​ 大多数现有的方法都在单个领域上独立训练 DST,而忽略了跨领域之间的信息的有效共享。
yhlin
2023-03-23
7420
【论文笔记】A Triple Copy Strategy for Value Independent Neural Dialog State Tracking
​ 多域对话以及开放词典设置使得对话状态追踪标的异常复杂。在本文中,作者充分利用了多种 拷贝机制 来填充槽值。一个槽的填充依赖于以下三种拷贝机制之一:
yhlin
2023-03-23
8690
【论文笔记】Multi-Attention-Based Scalable Dialog State Tracking
​ 我们的工作最类似于 TRADE,并通过提出自我和交叉注意力机制来捕捉位置和历史相关性。特别是,本文使用交叉注意在不同语义级别上的上下文和槽之间的模型关系,并使用自我注意来解决跨域共引用。此外,本文提出的体系结构并不依赖于事先了解域本体,也可以用于新域或看不见的插槽值的零镜头设置。
yhlin
2023-03-23
4570
【论文笔记】A Comparative Study on Schema-Guided Dialogue State Tracking
​ Frame-based 的状态表示在现代面向任务的对话系统中被广泛应用,以建模用户的意图和插槽值。然而,域本体的固定设计使得很难扩展到新的服务和 API。
yhlin
2023-03-23
1.3K0
【论文笔记】Jointly Optimizing State Operation Prediction and Value Generation for Dialogue State Tracking
​ 现有的方法利用 BERT 编码器和基于拷贝的 RNN 解码器,其中编码器预测状态操作,并由解码器生成新的插槽值。然而,在这种堆叠的编码器 - 解码器结构中,操作预测目标 只影响 BERT 编码器,而值生成目标 主要 影响 RNN 解码器。此外,在框架中,编码器是预先训练的,而解码器则没有预先训练。
yhlin
2023-02-27
7780
【论文笔记】Multi-Domain Dialogue State Tracking based on State Graph
​ 现有的方法通常将以前的对话状态与对话历史连接作为编码器的输入。它们依赖于编码器的自我注意机制来连接其中的 token。然而,编码器可能会注意到虚假的联系,从而导致错误的推断。
yhlin
2023-02-27
1.2K0
【论文笔记】2021-EMNLP-Knowledge-Aware Graph-Enhanced GPT-2 for Dialogue State Tracking
​ 为了建模槽间关系,本文提出了一种新的混合体系结构,它通过来自图注意网络的表示来增强 GPT-2,从而允许对槽值进行因果的、顺序的预测。模型体系结构捕获跨域的槽间关系和依赖关系。
yhlin
2023-02-27
1.2K0
【论文笔记】2019-ACL-Dialog State Tracking: A Neural Reading Comprehension Approach
概要 问题动机   以往的 DST 方法通常都是输出一个对所有槽值的预测概率分布,使得模型无法预测 unseen 的槽值。这篇文章的作者以不同角度看待 DST 问题,将其建模为一个阅读理解任务,让模型
yhlin
2023-02-27
3780
不确定性推理
大千世界,并非一切事物都可以进行精确的计算,都可以用是非来衡量那么简单。19 实际爱因斯坦与波尔的辩论的结局就是:上帝他老人家也是个赌徒,我们所处的客观世界充满着不确定。因此,发展一套研究不确定性的理论迫在眉睫。好在我们已经有了。
yhlin
2023-02-27
2970
归结反演
(2) 将待证结论否定得:\neg P(C) (3) 将谓词公式集 {P(A) \vee P(B)\vee P(C),P(A) \wedge \neg P(B) \rightarrow P(C),P(B) \rightarrow P(C)} 化成子句集: S={P(A) \vee P(B)\vee P(C),\neg P(A) \vee P(B) \vee P(C),\neg P(B) \vee P(C),\neg P(C)} (4) 应用归结原理进行归结 C_1=P(A) \vee P(B)\vee P(C), C_2=\neg P(A) \vee P(B) \vee P(C), C_3=\neg P(B) \vee P(C), C_4=\neg P(C) 归结: C_1 \otimes C_2 = C_12=P(B)\vee P(C) C_3 \otimes C_12 = C_123 = P(C) C_4 \otimes C_123 = C_1234 = NIL 空子句 结论得证。
yhlin
2023-02-27
5080
谓词逻辑归结原理
归结法的基本原理是采用反证法(也称反演推理法)将待证明的表达式(定理)转换成为逻辑公式(谓词公式),然后再进行归结,归结能够顺利完成,证明原公式(定理)是正确的。
yhlin
2023-02-27
1.7K0
利用归结原理求解问题
(1) 已知前提 F 用谓词公式表示并化为子句集 S (2) 把待求解的问题 Q 用谓词公式表示,并否定 Q, 在与 ANSWER 构成析取式 (\neg Q \vee ANSWER); (3) 把 (\neg Q \vee ANSWER) 化为子句,并入到子句集 S 中,得到子句集 S'; (4) 对子句集 S' 应用归结原理进行归结; (5) 若得到归结式 ANSWER, 则答案就在 ANSWER 中。
yhlin
2023-02-27
4020
命题逻辑基础
真值: 真,假 命题分类: 真命题、假命题、简单命题(原子命题)、复合命题 命题公式:
yhlin
2023-02-27
4600
谓词演算的推理理论
步骤 | 公式 | 理由 :-|:-:|:- 1 | \forall x(F(x)\rightarrow G(x)) | 前提引入 2 | F(c)\rightarrow G(c) | 1,UI 3 | \forall xF(x) | 前提引入 4 | F(c) | 3,UI 5 | G(c) | 2,4,假言推理 6 | \forall xG(x) | 5,UG
yhlin
2023-02-27
3970
谓词逻辑
如: 小明是个小学生 其中,小明 就是个体词, 是个小学生 就是谓词, 说明了客体的性质。 再如: 6 大于 5 其中 6 与 5 为个体词,大于 为谓词,说明了客体间的关系。
yhlin
2023-02-27
1K0
命题逻辑的推理规则
def: 设 A 和 B 是两个命题公式,当且仅当 A\rightarrow B 是 重言式 时称由 A 可推出 B , 或 B 是前提 A 的结论,记为:A\Rightarrow B, 读作如果 A 为真那么 B 为真。
yhlin
2023-02-27
9550
【源码阅读计划】浅析 Java 线程池工作原理及核心源码
在 JDK 的 ThreadPoolExecutor 线程池中用一个原子整型来维护线程池的两个状态参数:
yhlin
2023-02-27
3530
【Pytorch基础】处理多维特征的输入
  到目前为止,我们讨论的都是只有一个实数输入的模型。但实际情况要复杂的多,因此,如何处理多维输入是个非常重要的问题。
yhlin
2023-02-27
8010
【Pytorch基础】深度残差神经网络
  前面我们讨论的神经网络的层数都不会很大,但是对于一些深层的神经网络来说,训练它将会变得非常困难。其中一个原因是对于深层神经网络其越接近输入的层越有可能出现梯度消失和梯度爆炸问题,导致网络无法继续学习到更多特征。
yhlin
2023-02-27
6230
点击加载更多
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档